Cosa sono le allucinazioni AI

Le allucinazioni AI forniscono informazioni false come se fossero vere: ecco come si verifica questo problema

Nascono continuamente nuove AI generative, ma tute sembrano avere un problema le allucinazioni AI. ChatGPT rimane la più popolare tra le intelligenze artificiali, Google Bard continua a ricevere aggiornamenti, Dall-E2 è in vetta  per la creazione di immagini. Queste applicazioni di intelligenza artificiale sono utili e amiche dell’utente.

I professionisti stanno sperimentando l’uso delle AI per scrivere email, schede prodotto e articoli, blog post. Questa sperimentazione ha sollevato un problema comune che ogni utente di AI deve conoscere: le allucinazioni.
Le allucinazioni dell’AI sembrano una trama economica in un programma di fantascienza, ma queste falsità sono un problema negli algoritmi dell’AI e hanno conseguenze per le persone che si affidano all’AI. Ecco ciò che devi sapere.

Allucinazioni AI

Cos’è un’allucinazione AI?

Un’allucinazione AI si verifica quando un AI generativa fornisce informazioni per un prompt che non è corretto o non esiste nel mondo reale. Ad esempio, se chiedi all’AI, “Quanti tulipani ci sono nel mondo?” e l’AI risponde, “Ci sono tre tulipani per ogni persona vivente nel mondo,” quella è un’allucinazione.
Quella statistica non è corretta. Nessuno l’ha mai creata o studiata nel mondo reale. L’AI l’ha inventata da sola. Questo accade spesso con i dati, le statistiche e i numeri che l’AI cita. I chatbot possono persino creare casi giudiziari falsi che mettono nei guai gli avvocati che la interrogano oppure può capitare di citare la ricerca medica sbagliata a supporto di una teoria in campo sanitario.
Per le AI basate su immagini, un’allucinazione potrebbe essere costituita dall’incapacità di capire come funzionano le mani umane o di scambiare una tigre per un gatto domestico. Tuttavia, le allucinazioni sono più comunemente associate con l’AI conversazionale.

Cosa causa le allucinazioni dell’AI?

L’AI generativa è creata da LLMs, o large language models, un modello di apprendimento automatico che si addestra con molti dati generati dall’uomo (contenuti online). Analizzano molti linguaggi trovati online (o immagini, a seconda della loro specializzazione) e li suddividono in identificatori e formule che possono utilizzare per creare frasi che suonano umane. È come una forma avanzata di imitazione, e le AI hanno bisogno di molto addestramento prima di poter sembrare davvero umane. Alla fine, gli strumenti di AI conversazionale possono fornire informazioni in linguaggio naturale, ma ciò non significa che ciò che dicono sia accurato.

I sistemi di AI conversazionale sono progettati per rispondere a prompt come ChatGPT di OpenAI. Devono sempre dire qualcosa. Impegnate a imitare il linguaggio umano e a scandagliare i dati online, a volte inventano cose per rispondere in modo naturale ai prompt. I bot alimentati da AI mirano a risultare umani nelle risposte, non necessariamente a fornire risposte completamente corrette, quindi anche le informazioni non esatte possono entrare nelle risposte. Quando si creano allucinazioni AI, queste sono causate da vari fattori:

Addestramento dell’AI scarso o mancante, inclusa una scarsa selezione di dati di addestramento o dati di addestramento di bassa qualità.
Overfitting” o addestramento di un’AI troppo focalizzato su un argomento limitato che fa in modo che non sappia cosa rispondere ai prompt e restituisca informazioni caotiche.
Riproposizione di informazioni false diffuse online dagli esseri umani, inclusa la disinformazione maliziosa, le fake news
Pregiudizi umani o emozioni che gli strumenti dell’AI raccolgono e imitano nei momenti sbagliati.
L’usare un modello complesso che raccoglie e analizza così tante informazioni, con così tante opzioni per la generazione di contenuti, che persino le migliori AI faticano a identificare cosa sia reale e cosa non lo sia.

Tutte le AI hanno allucinazioni?

Tutte le AI possono commettere errori. Le allucinazioni sono solitamente un problema specifico dell’AI generativa, progettata per rispondere ai prompt. Per quanto riguarda questi tipi di AI, nessuna di esse è perfetta. In ognuna sono state trovate allucinazioni, almeno occasionalmente. L’AI rivolta ai consumatori tende ad avere alcuni controlli incorporati per prevenire le allucinazioni, ma niente è perfetto.

Come riconosco un’allucinazione dell’AI?

Una parte del problema è che i chatbot avanzati  le AI suonano sempre convincenti. Citano allucinazioni perché “credono” che siano vere come qualsiasi altro tipo di dato. L’utente deve gestire questi possibili errori, deve fafe il lavoro del correttore di bozze. Bisogna verificare le informazioni quando un’AI generativa fa una affermazione, specialmente riguardante numeri, date, persone o eventi. Fare attenzione ad informazioni contraddittorie in una risposta o a numeri che non sembrano corretti per il prompt fornito. Non fidarsi dei bot per fornire informazioni affidabili senza verificare le fonti. Ci sono esempi di ChatGPT che confonde personaggi immaginari e altre false informazioni.

Si possono prevenire le allucinazioni quando uso l’AI?

Non si possono prevenire i problemi di allucinazione, ma si possono ridurre le allucinazioni e ottenere una risposte migliori. Queste sono le pratiche da seguire:

Abbassare la “temperatura” dell’AI. Questa impostazione controlla quanto l’AI può essere randomizzata e può limitare le imprecisioni (riduce anche la creatività delle risposte).
Evitare di utilizzare termini gergali quando si crea un prompt.
Non fare domande aperte. Chiedere informazioni specifiche.
Riempire i prompt con informazioni utili che l’AI può utilizzare per restringere la sua risposta.
Inquadrare la domanda chiedendo all’AI di imitare un professionista nel campo, come un insegnante o un banchiere (suona strano, ma spesso aiuta).
Dire all’AI cosa non vuoi sapere se fornisce informazioni casuali. Si può anche chiedere citazioni che si possono poi controllare.

Le allucinazioni dell’AI sono pericolose?

Le allucinazioni dell’AI sono pericolose per due ragioni. Prima di tutto, possono fornire informazioni sbagliate quando si vogliono ottenere quelle giuste. Può essere divertente, come quando uno studente presenta un saggio creato dall’AI che sostiene che Abraham Lincoln abbia inventato l’automobile Lincoln. Può anche essere irritante, come quando un’AI crea una ricetta  ma dice di utilizzare due cucchiai di acido solforico invece del bicarbonato di sodio o falsifica una un’informazione nel tuo curriculum. Nel peggiore dei casi, le persone che seguono istruzioni sbagliate possono farsi male o mettersi nei guai.

A un livello più profondo, le allucinazioni dell’AI possono creare grossi problemi con la disinformazione. Cosa succede se chiedi a un’AI delle statistiche relative a un argomento spinoso come l’immigrazione o i vaccini, e l’AI ha un’allucinazione sui numeri? Quando gli utenti credono in un’allucinazione, le persone possono farsi male. Questo è uno dei motivi per l’enfasi che si sta diffondendo sulla rimozione delle allucinazioni.

Possono gli sviluppatori risolvere le allucinazioni dell’AI?

Ci stanno lavorando. GPT-4 è migliore di GPT 3.5, e così via. Gli sviluppatori possono utilizzare molti trucchi per creare parametri e barriere per impedire all’AI di avere allucinazioni. Questo processo correttivo può richiedere ulteriori addestramenti, ri-addestramenti o potenza di elaborazione aggiuntiva, con i conseguenti costi. Idealmente, l’AI generativa continua a migliorare e le allucinazioni diventano sempre più rare.

 


Cosa sono le allucinazioni AI - Ultima modifica: 2024-01-06T00:27:50+00:00 da Francesco Marino

Giornalista esperto di tecnologia, da oltre 20 anni si occupa di innovazione, mondo digitale, hardware, software e social. È stato direttore editoriale della rivista scientifica Newton e ha lavorato per 11 anni al Gruppo Sole 24 Ore. È il fondatore e direttore responsabile di Digitalic

e-book guida ecm

Non rimanere indietro, iscriviti ora

Ricevi in tempo reale le notizie del digitale

Iscrizione alla Newsletter

controlla la tua inbox per confermare l'iscrizione

Privacy Policy

Grazie! Ora fai parte di Digitalic!