Le allucinazioni AI stanno diventando un bel problema per i chatbot

-

Che cosa sono le allucinazioni AI?
Un’allucinazione AI è quando un modello di linguaggio di grandi dimensioni (LLM) genera informazioni false. Gli LLM sono modelli di intelligenza artificiale che alimentano i chatbot, come ChatGPT e Google Bard. Le allucinazioni possono essere deviazioni da fatti esterni, logica contestuale o entrambi.

Le allucinazioni spesso appaiono plausibili perché i LLM sono progettati per produrre un testo fluido e coerente. Si verificano perché gli LLM non hanno alcuna comprensione della realtà sottostante descritta dal linguaggio. Gli LLM utilizzano le statistiche per generare un linguaggio grammaticalmente e semanticamente corretto, tuttavia, le allucinazioni non sempre appaiono plausibili. A volte possono essere chiaramente senza senso. Non esiste un modo chiaro per determinare le cause esatte delle allucinazioni, vanno valutate caso per caso. Un altro termine per definire un’allucinazione AI è “confabulazione”. Le allucinazioni sono più associate agli LLM, ma possono anche apparire in video, immagini e audio generati dall’intelligenza artificiale.

“Non credo che oggi esista un modello che non soffra di qualche allucinazione”, ha dichiarato Daniela Amodei, co-fondatrice e presidente di Anthropic, creatrice del chatbot Claude 2. “Sono davvero progettati solo per prevedere la parola successiva. E quindi ci sarà una certa velocità per la quale il modello diventa impreciso.”

La preoccupazione della Nazioni Unite

Jack Clark, co-fondatore di Anthropic, ha partecipato in luglio alla prima riunione del Consiglio di sicurezza sull’intelligenza artificiale (AI), presso la sede delle Nazioni Unite. L’incontro, convocato dal Regno Unito, affrontava il tema “Intelligenza artificiale: opportunità e rischi per la pace e la sicurezza internazionale”. Il Segretario generale ha espresso osservazioni durante il dibattito affermando: “Esorto il Consiglio ad avvicinarsi a questa tecnologia con un senso di urgenza, una lente globale e la mentalità di uno studente”.
Il presidente Joe Biden ha parlato di intelligenza artificiale nella Roosevelt Room della Casa Bianca, venerdì 21 luglio 2023, a Washington. Amazon, Google, Meta, Microsoft e altre aziende tecnologiche accettano le misure di salvaguardia dell’IA stabilite dalla Casa Bianca.

Anthropic, il produttore di ChatGPT OpenAI e altri importanti sviluppatori di sistemi di intelligenza artificiale noti come modelli di linguaggio di grandi dimensioni affermano che stanno lavorando per renderli più veritieri. Quanto tempo ci vorrà e se saranno mai abbastanza bravi, resta da vedere. “Questo non è risolvibile”, ha detto Emily Bender, professoressa di linguistica e direttrice del Computational Linguistics Laboratory dell’Università di Washington. “È insito nella discrepanza tra la tecnologia e i casi d’uso proposti”.

L’affidabilità della tecnologia

Molto dipende dall’affidabilità della tecnologia dell’intelligenza artificiale generativa. Il McKinsey Global Institute prevede che aggiungerà l’equivalente di $ 2,6 trilioni a $ 4,4 trilioni all’economia globale. I chatbot sono solo una parte di quella frenesia, che comprende anche la tecnologia in grado di generare nuove immagini, video, musica e codice informatico. Quasi tutti gli strumenti includono alcuni componenti linguistici.

Google sta già proponendo un prodotto di intelligenza artificiale per scrivere notizie alle testate giornalistiche, per le quali la precisione è fondamentale. L’Associated Press sta inoltre esplorando l’uso della tecnologia come parte di una partnership con OpenAI, che sta pagando per utilizzare parte dell’archivio di testo per migliorare i suoi sistemi di intelligenza artificiale.

Le prospettive

Per alcuni esperti che hanno studiato la tecnologia, come Bender, linguista dell’Università di Washington, questi miglioramenti non saranno sufficienti. I tecno-ottimisti come il co-fondatore di Microsoft Bill Gates, hanno invece prospettive più rosee. “Sono ottimista sul fatto che, nel tempo, ai modelli di intelligenza artificiale si possa insegnare a distinguere i fatti dalla finzione”, ha detto Gates in un post sul blog di luglio che descrive in dettaglio i suoi pensieri sui rischi sociali dell’IA. E ha citato un documento del 2022 di OpenAI come esempio di “lavoro promettente su questo fronte”.

Più recentemente, i ricercatori dell’Istituto federale svizzero di tecnologia di Zurigo hanno affermato di aver sviluppato un metodo per rilevare alcuni, ma non tutti, i contenuti allucinati di ChatGPT e rimuoverli automaticamente.

I primi problemi

La funzione My AI di Snapchat, lanciata il 31 maggio, ha lasciato nel dubbio milioni di utenti dopo essere impazzita il 15 agosto. Il bot, alimentato da ChatGPT di OpenAI, ha pubblicato una sua storia e poi, insolitamente, ha smesso di rispondere a qualsiasi domanda in seguito: un esempio di come l’intelligenza artificiale a volte può avere allucinazioni.

La funzione My AI consente agli utenti di Snapchat di inviare i propri messaggi di snap del bot, al fine di ricevere una risposta dal bot generativo AI. In questo modo, il bot può conversare con gli utenti e dare loro consigli.

Quale IA ha più allucinazioni?

Questa è la domanda che si pone Dave McQuilling sul sito slashgear.com  “L’intelligenza artificiale sta già influenzando le nostre vite e ha il potenziale per svilupparsi ulteriormente. Per quanto sorprendente sia, le IA del modello di linguaggio di grandi dimensioni (LLM) hanno uno svantaggio piuttosto grande. Tendono a inventare cose stravaganti e a presentarle come la verità. Questo fenomeno è noto come “allucinazione dell’IA” e coinvolge l’IA generativa che arriva alla conclusione sbagliata quando compulsa la sua banca dati. I modelli funzionano trovando temi comuni in un’enorme banca di informazioni e utilizzandoli per rispondere ai suggerimenti.”

Il problema è aggravato dalla capacità del modello di “mentire” in modo convincente, il che a sua volta è un sottoprodotto della sua programmazione. Gli LLM sono progettati per interagire con le persone in modo colloquiale, simile a quello umano. Questo di per sé può far sembrare le imprecisioni più autentiche.

Poi c’è anche l’avversione del modello a dire semplicemente “non lo so” e costringe qualche dato ad adattarsi dove in realtà non avrebbe motivo di essere proposto. Mentre la lotta all’allucinazione dell’IA può richiedere del tempo, possiamo almeno esserne più consapevoli. Il doppio controllo delle informazioni che ti vengono presentate dovrebbe essere standard. Bard, uno dei chatbot più popolari, viene fornito con un pulsante “Google” che può essere utilizzato per verificare rapidamente le informazioni fornite dall’intelligenza artificiale.

Tutti i robot sono inclini a questo fenomeno, ma alcuni sono notevolmente peggiori di altri. Il gruppo di ricerca Arthur AI ha testato molte delle opzioni più popolari e le ha classificate in base a quanto sono inclini alle allucinazioni.