Thomson Reuters. Uno sguardo al futuro futuro dell’IA generativa

-

By Steve Hasker, President & CEO, Thomson Reuters — 

Nonostante tutto l’entusiasmo e l’innovazione che si verificano attorno all’IA generativa, l’attuale frenesia dei media ha sollevato tante preoccupazioni e ispirato un nuovo pensiero rivoluzionario. C’è poca discussione sul potenziale per la società di utilizzare questa tecnologia per aumentare la produttività, liberare gli esseri umani per il pensiero creativo e livellare il campo di gioco per le comunità di tutto il mondo, con un avvertimento, che dobbiamo semplicemente costruirla in modo responsabile.

Prima di lasciarci travolgere dai titoli sensazionalistici sui robot che rubano posti di lavoro professionali o interi settori vengono decimati per mano dell’IA generativa, l’imperativo è guardare i guardrail che abbiamo messo in atto. Questa sarà la vera chiave per generare fiducia, incoraggiare l’adozione e costruire su una base solida che consenta agli utenti di sfruttare davvero l’opportunità. Come professionisti, questo deve essere il più grande investimento che facciamo.

Un impegno per la trasparenza

Per dirla semplicemente, la rivoluzione generativa dell’IA deve prendere sul serio la trasparenza. La posta in gioco è alta. Esistono già innumerevoli esempi di allucinazioni dell’intelligenza artificiale, che si verificano quando un algoritmo di intelligenza artificiale rivede un corpus di testo e inizia a fare previsioni basate sui modelli che vede in quel testo, ma non riesce a incorporare le informazioni contestuali in quel processo di riconoscimento del modello. Aggiungi il fatto che molte fonti di informazioni pubblicamente disponibili utilizzate per addestrare la tecnologia, come Wikipedia e Reddit, sono esse stesse inclini a pregiudizi e manipolazioni, e diventa chiaro come l’IA possa spesso sbagliare. “L’intelligenza artificiale ha visto lo schema, ma non è riuscita a sudare i dettagli. Nel mondo reale, al di fuori dei nostri laboratori, ciò avrebbe potuto avere gravi conseguenze”

In Thomson Reuters, abbiamo riscontrato questo fenomeno all’inizio dei nostri test sulla capacità dell’IA generativa di comprendere e interpretare la giurisprudenza. Quando è stata posta una domanda su una legge statale specifica nel Michigan, l’IA ha potuto identificare con sicurezza e precisione la legge e fornire dettagli al riguardo. Tuttavia, quando abbiamo chiesto informazioni sulla stessa legge nel Massachusetts, ci ha dato con sicurezza la stessa risposta, sostituendo il Massachusetts al Michigan. C’era solo un problema: quella legge non esiste nel Massachusetts. L’intelligenza artificiale ha visto lo schema, ma non è riuscita a capire i dettagli. Nel mondo reale, al di fuori dei nostri laboratori, ciò avrebbe potuto avere gravi conseguenze se l’intelligenza artificiale fosse stata presa per oro colato.

L’esempio è stato un momento di chiarezza per il nostro team di ingegneri del software ed esperti in materia perché ha illustrato quanto sarebbero importanti per il futuro dell’IA generativa nel mondo reale i dati affidabili e proprietari, la profonda competenza in materia e la capacità di citare fonti autorevoli applicazioni professionali. Dopotutto, una cosa è quando uno strumento di intelligenza artificiale generativa sbaglia la battuta finale su uno scherzo knock-knock o redige una lettera piena di cliché; un’altra è quando i suoi risultati hanno un impatto sulla verità, sulla trasparenza e sulla giustizia.

Costruire una solida base

Prima che possano essere completamente affidabili per svolgere un lavoro importante, i modelli linguistici di livello professionale devono essere addestrati utilizzando set di dati completi e autorevoli. Forse ancora più importante, quel processo deve essere mediato da esperti umani in materia che comprendono le sfumature e il contesto e hanno il potere di ignorare le imprecisioni.

E, anche dopo aver eseguito questi passaggi, qualsiasi output del modello deve includere anche un chiaro percorso di controllo della provenienza dei risultati, con collegamenti tracciabili ai materiali di origine. In parole povere, Humans + AI è l’unico modo per avere successo.

Lo sviluppo dell’IA generativa

In TR abbiamo recentemente annunciato il nostro impegno a investire 100 milioni di dollari all’anno per promuovere lo sviluppo dell’IA generativa in un’ampia gamma di prodotti, comprese le principali soluzioni software utilizzate da professionisti legali e fiscali per ricercare giurisprudenza, redigere contratti e gestire la conformità fiscale a livello globale. Il più grande investimento che faremo è garantire che la nostra intelligenza artificiale sia costruita in modo responsabile. Ecco perché abbiamo aggiornato e pubblicato i nostri principi di intelligenza artificiale per dimostrare il nostro impegno per un’IA etica.

Dobbiamo anche porci domande difficili: se l’IA generativa sia davvero la migliore tecnologia per ogni caso d’uso, esplorandone i limiti quando li incontriamo. Soprattutto, dobbiamo condividere le nostre scoperte, collaborare con partner del settore, clienti e autorità di regolamentazione e rimanere consapevoli sia dell’enorme potenziale che dei rischi associati mentre avanziamo in questo entusiasmante periodo di innovazione.

“Anche se ora potremmo non avere tutte le risposte, possiamo iniziare a mettere in atto alcuni guardrail fondamentali, sotto forma di regolamentazione, per favorire la fiducia e l’innovazione nell’IA”. Questo non è solo un problema del settore, ma un imperativo sociale e non possiamo risolverlo da soli. Prima di poterci fidare della guida generata dal computer, etica o meno, le persone devono sapere come un sistema di intelligenza artificiale arriva alle sue conclusioni e raccomandazioni e sentirsi sicure che i risultati siano spiegabili.