ChatGPT spesso fornisce risposte inventate; originali e verosimili ma comunque non aderenti al vero

Ormai è abbastanza noto come fenomeno: ChatGPT, quando non ha informazioni precise per rispondere alla domanda posta, ci risponde dicendo onestamente che non è in grado di fornire una risposta; altre volte invece risponde inventando di sana pianta. Lo si vede particolarmente quando le chiediamo di darci informazioni su una persona reale. Io ho provato a chiedere di scrivere "una breve biografia di Simone Aliprandi" e lei ha tirato fuori cose verosimili ma false (molto false). Guardate lo screenshot qui sotto.

È una cosa poco comprensibile, perché di mie brevi biografie, miei profili, miei CV, la rete è piena; ma lei, invece che cercare di andare a prendere quei contenuti e di re-impastarli, preferisce inventare. È dunque importante sapere che è così e che quindi non dobbiamo confonderla con un motore di ricerca. Lei non ci risponde facendo una ricerca sul web e cercando di rielaborare i contenuti; ci risponde sulla base della conoscenza da lei acquisita e fornendoci quella che lei pensa sia una risposta verosimile. 

In sostanza, per ora è un gioco divertentissimo e rivoluzionario ma difficilmente possiamo considerarla come uno strumento valido per creare contenuti di carattere informativo, accademico, divulgativo, se non facendo una verifica puntuale di tutto ciò che ci viene fornito. Forse funziona meglio con la scrittura creativa e di fantasia; ma quello non è il mio campo.

Dello stesso tema si è occupato Massimo Giordani in questo post su LinkedIn Pulse: https://www.linkedin.com/pulse/chatgpt-quando-non-sa-inventa-massimo-giordani/.




Commenti