Principali equivoci su GhatGPT e sugli altri sistemi AI (secondo Datapizza)

Nelle scorse settimane la pagina LinkedIn di Datapizza ha pubblicato degli ottimi post che, con grande efficacia comunicativa, sgombrano il campo dai principali equivoci (o leggende metropolitane) sul funzionamento di ChatGPT e di altri sistemi di intelligenza artificiale generativa.

Li riporto qui di seguito perché meritano la giusta visibilità e non devono essere inghiottiti nell'obblio dell'oceano dei social media. 


PRIMO POST
Tutti sbagliano queste 4 cose su ChatGPT 

__________________________________

📍 ChatGPT è un’interfaccia, non un modello di AI:

ChatGPT è un’applicazione / interfaccia che permette di usare un modello AI. Non è l’AI. Il modello AI si chiama solo GPT ed è disponibile in varie versioni.

📍 ChatGPT-4 NON ESISTE:

Esiste GPT-3, GPT-3.5, GPT-4, GPT-4 Turbo, GPT-4o che sono tutti Large Language Model.

📍 ChatGPT non ha “dentro” nessun database:

Genera le parole in modo probabilistico - non contiene un database si risposte e risorse all’interno.

📍 Se i tuoi dati vengono usati per il training, difficilmente te li ruberanno:

I tuoi dati, anche se usati nel training, vanno in un “frullatore” con quantità enormi di altri input.

Difficilmente da questa minestra di dati di allenamento il modello genererà casualmente propri tuoi dati.




SECONDO POST
C'è un enorme differenza tra Google e ChatGPT 

__________________________________


👉 Google è un motore di ricerca: un sistema di software che data una richiesta dell'utente estrae le risorse più rilevanti dal web.

👉 GPT, su cui si basa ChatGPT, è un Large Language Model: un modello statistico che cerca di prevedere la prossima parola.

Spieghiamolo meglio 👇🏼

Un motore di ricerca:

📍 Estrae determinate risorse seguendo il suo algoritmo
📍 La maggior parte delle risorse sono artefatti umani
📍 Quando valuti una risorsa devi valutare l'affidabilità dell'autore

Un modello di linguaggio:

📍 È stato addestrato su una gran parte della conoscenza digitale umana
📍 Può commettere errori molto credibili chiamati allucinazioni
📍 Non ti permette di capire da che fonte ha preso la risposta

Concentriamoci sulle allucinazioni:

Parliamo di allucinazione quando un modello di linguaggio ti da una risposta completamente errata. ❌

Questo succede perché l'obiettivo di un LLM non è quello di farti avere un'informazione corretta e veritiera, ma quello di trovare la prossima parola più probabile dato il contesto.

Perché sta proprio qui la cosa da capire? 🤔

Perché un modello di linguaggio può darti una risposta completamente errata, ma molto convincente…

Questo, mischiato al falso mito che funzioni come un motore di ricerca, ti porta a credere completamente alle sue parole. 🙃

Commenti