La generative AI male impostata inizia a fare danni reputazionali molto gravi

-

La notizia secondo cui un report commissionato al ramo canadese di Deloitte da 1,6 milioni di dollari canadesi sarebbe “finito nel mirino per citazioni accademiche inesistenti” e per un presunto uso improprio della generative AI (GenAI) è confermata da fonti giornalistiche affidabili, e non si tratta di un semplice rumor.

Che cosa è successo

Un rapporto di 526 pagine realizzato da Deloitte per il governo provinciale di Newfoundland and Labrador sul sistema sanitario e sul reclutamento di personale medico è stato pubblicato online nel maggio 2025 con un costo di quasi 1,6 milioni di dollari canadesi. Secondo un’inchiesta del quotidiano canadese The Independent, il documento contiene citazioni accademiche false o inesistenti, attribuite a studi, articoli o collaborazioni tra ricercatori che non esistono o che non sono stati mai pubblicati.

Alcuni esempi riportati dagli investigatori includono riferimenti a lavori scientifici mai apparsi nelle riviste di riferimento e l’attribuzione di pubblicazioni a ricercatori che hanno dichiarato di non aver partecipato a quegli studi. In almeno quattro casi segnalati, i riferimenti citati per supportare analisi di costi-benefici nel settore sanitario si sono rivelati fittizi.

Deloitte Canada ha risposto affermando di “sostenere pienamente le raccomandazioni del rapporto” ma ha ammesso di essere impegnata a revisionare le citazioni errate. Secondo un portavoce, l’intelligenza artificiale “non è stata utilizzata per scrivere il rapporto” ma selezionata solo per supportare alcune citazioni bibliografiche, precisando che le correzioni non cambieranno le conclusioni principali del documento.

Il nodo dell’IA generativa

L’episodio ha attirato l’attenzione non tanto perché GenAI sia il colpevole diretto, ma perché segnala i rischi dell’uso non controllato di strumenti generativi nell’elaborazione di analisi complesse e report professionali.

Diversi esperti citati negli articoli e nelle dichiarazioni sottolineano che errori del genere, come citazioni inventate o connessioni tra autori che non esistono, sono tipiche delle cosiddette hallucinations, fenomeni noti nei modelli linguistici generativi che possono creare risposte coerenti ma senza fondamento nella realtà dei dati.

Non è un caso isolato

La vicenda canadese fa seguito a un episodio simile verificatosi in Australia, dove Deloitte ha accettato di rimborsare parzialmente il governo australiano dopo che un altro rapporto commissionato di circa 440 mila dollari australiani è stato trovato pieno di citazioni e riferimenti falsi generati dall’IA. Anche in quel caso, riferimenti inesistenti e citazioni fabricate hanno costretto alla rielaborazione del documento e a un rimborso parziale dei fondi pubblici.

Il caso è considerato particolarmente significativo perché riguarda un documento di consulenza pubblica costoso e commissionato con fondi governativi, e riaccende il dibattito sulla governance, l’etica e il controllo dell’uso dell’IA nei report professionali e nelle analisi strategiche.