Seguire le curve: il trend dell’IA e il suo potenziale di crescita a lungo termine

-

Introduzione

Nonostante la volatilità delle ultime settimane, da inizio anno al 31 luglio 2024 i titoli tecnologici hanno offerto solidi rendimenti sovraperformando tutti gli altri settori, spesso con un ampio margine1. Questa sovraperformance rappresenta a nostro avviso la prosecuzione del trend seguito al lancio di ChatGPT 3.52, il primo modello di intelligenza artificiale (IA) basato su trasformatori di ampia diffusione, a novembre del 2022. Pur avendo assistito alla fenomenale crescita delle aziende specializzate in infrastrutture per l’IA nel corso di questo periodo, siamo convinti che molti investitori non comprendano appieno quanto i modelli di IA siano destinati a migliorare in futuro, né che questi miglioramenti, una volta messi in atto, favoriranno l’innovazione, accelereranno la crescita e renderanno più efficiente l’economia globale.

Ci troviamo a nostro avviso solamente nelle prime fasi di un mutamento profondo e rivoluzionario. I recenti miglioramenti delle capacità dei modelli basati su trasformatori sono impressionanti3: i modelli di IA più avanzati al mondo sono oggi in grado di svolgere complesse operazioni di programmazione, superare esami di ammissione all’ordine degli avvocati, ottenere prestazioni migliori di quelle della maggior parte degli esseri umani in test standardizzati, creare video ed elaborare complessi flussi di ragionamenti. Nei prossimi anni, inoltre, man mano che verranno utilizzati più dati e potenza di calcolo grezza e apportati miglioramenti agli algoritmi, non c’è dubbio che i modelli basati su trasformatori continueranno a progredire.

Siamo a nostro giudizio sull’orlo di un mutamento radicale con l’evoluzione dei modelli da chatbot testuali e motori per la creazione di contenuti multimediali ad agenti attivi che saranno in grado di ragionare e utilizzare computer, esibendo comportamenti analoghi a quelli dei più avanzati lavoratori digitali umani come scienziati, matematici, programmatori e ricercatori specializzati in IA. È quando si verificherà questo, a nostro modo di vedere, che si avrà un’accelerazione significativa di innovazione, crescita ed efficienza. E oltre a questa accelerazione assisteremo di sicuro a una crescita significativa delle infrastrutture a livello globale necessarie per consentire un’ulteriore espansione e un maggior utilizzo dei modelli.

Il trend dell’IA: “le curve non mentono mai” Ricordo spesso al mio team di “fidarsi delle curve”. I modelli di IA generativa (generative AI, GenAI) più avanzati al mondo sono in grado di svolgere compiti sempre più complessi. Nell’ultimo decennio, man mano che i ricercatori hanno apportato un numero via via maggiore di miglioramenti ai modelli in termini di potenza di calcolo, dati e algoritmi, le curve delle capacità hanno subito una brusca impennata. Sulla base delle nostre ricerche, riteniamo che nel prossimo futuro questi progressi proseguiranno a un rapido ritmo. Le curve, a nostro avviso, non mentono mai, e il loro potere predittivo può fornire indicazioni preziose in grado di guidare le nostre analisi.

Essendo convinti che un appiattimento delle curve di ampliamento delle capacità dell’IA sia ancora lontano continuiamo a ravvisare opportunità per gli investitori sia nella fase di “sviluppo e sperimentazione” che in quella di “applicazione” dell’IA. Esaminiamo le possibili implicazioni dell’ampliamento di ciascuna delle quattro risorse fondamentali per il funzionamento dell’IA:

  1. Potenza di calcolo: nei prossimi anni la domanda di potenza di calcolo per l’IA è destinata con tutta probabilità ad aumentare di 100 volte. La potenza di calcolo è il fattore principale per consentire l’ampliamento delle capacità dell’IA nella fase di addestramento; le proiezioni sull’effetto dell’espansione della potenza di calcolo sulle attività di addestramento sono a dir poco impressionanti. Secondo le nostre stime, OpenAI4 ha addestrato il proprio modello GPT-4 (rilasciato a marzo del 2023) tramite GPU (graphics processing unit) equivalenti a circa 10.000 del tipo H100 di NVIDIA5 e a un costo pari a circa 500 milioni di dollari. Stimiamo inoltre che i più potenti modelli del 2024 prodotti da OpenAI e dai suoi competitor stiano venendo addestrati tramite l’equivalente di approssimativamente 100.000 GPU dello stesso tipo per circa 1 miliardo di dollari. Le nostre analisi indicano che sono in atto piani per far sì che nel 2026 i modelli più avanzati saranno costruiti tramite GPU equivalenti a circa un miliardo del tipo H100. L’addestramento di questi modelli potrebbe costare diversi miliardi di dollari e richiedere una quantità di energia elettrica analoga a quella prodotta dalla diga di Hoover6. Ciò indica che per passare dall’attuale modello GPT-4, paragonabile a un buono stagista, a un modello vicino alle capacità di qualsiasi lavoratore della conoscenza altamente specializzato, servirà un aumento di 100 volte del numero di GPU.
    Ma ovviamente i modelli di GenAI sono utili solo nella misura in cui trovano un impiego concreto. Nei prossimi anni, secondo le nostre previsioni, GenAI e agenti digitali saranno sfruttati rispettivamente dalla maggior parte dei lavoratori della conoscenza e delle imprese. Si pensi ad esempio alla possibilità che una delle più grandi aziende di software e cloud computing al mondo offra agenti digitali incorporati nella propria suite di strumenti per la produttività con funzionalità cloud e IA già integrate al loro interno. Oggi i lavoratori della conoscenza che utilizzano tale piattaforma sono all’incirca 500 milioni, la maggior parte dei quali non acquista servizi legati alla GenAI. Ipotizzando che tali lavoratori guadagnino in media 50.000 dollari l’anno e che grazie ai servizi legati alla GenAI la loro produttività aumenterà del 5% (stima a nostro avviso molto conservativa), questi modelli potrebbero creare un surplus pari a 1125 miliardi di dollari, equivalenti a 2500 dollari per ciascun lavoratore della conoscenza ogni anno. Una volta giunta al massimo l’adozione di tali servizi, ipotizzando che ciascun utente paghi ogni anno 360 dollari, quest’impresa sarebbe in grado di assicurarsi il 15% (equivalente a 180 miliardi di dollari) del surplus generato; un eccellente ritorno sui pochi miliardi investiti per sviluppare e far funzionare i modelli. Si avrebbero inoltre enormi risparmi in termini di produttività e costi per i clienti finali. Man mano che i modelli miglioreranno e i loro impieghi pratici diverranno più chiari e interessanti, a nostro avviso, l’adozione degli agenti digitali da parte delle imprese è destinata a crescere. Chiaramente questo è solo un esempio: esiste un’opportunità ovunque sia possibile svolgere meglio un lavoro della conoscenza grazie a un’intelligenza contestuale aggiuntiva. Secondo le nostre ricerche quasi ogni azienda che sviluppa strumenti digitali per i lavoratori della conoscenza sta valutando la possibilità di incorporare la GenAI nella propria offerta.
  2. Energia: quella che serve per alimentare la crescita dell’IA. Negli Stati Uniti, produrre energia elettrica a sufficienza per creare un cluster di GPU equivalenti a un milione del tipo H100 entro il 2026 sarà una sfida. Questa domanda potrebbe essere soddisfatta a nostro avviso sfruttando le infrastrutture legate all’energia nucleare già esistenti del paese e le sue abbondanti riserve di gas naturale. Con la crescita dei modelli di IA al di là del 2026 generare energia a sufficienza potrebbe divenire più difficile. Dati gli incentivi derivanti dal profilo di rendimento di tali modelli, tuttavia, siamo fiduciosi sul fatto che verranno trovate soluzioni in ultima analisi vantaggiose per i settori di industria, infrastrutture energetiche e utility non regolamentate.
  3. Dati: l’accesso a dati abbondanti per addestrare i modelli. I dati rappresentano il fattore essenziale successivo per l’ampliamento dei modelli. Alcuni hanno sollevato dubbi sulla disponibilità di dati adeguati per addestrare i futuri modelli di GenAI. Noi non siamo d’accordo, ritenendo ci siano ancora informazioni in abbondanza da sfruttare nelle sfere sia dei dati prodotti da esseri umani che di quelli generati da macchine. Modelli di base di grandi dimensioni come quelli di OpenAI sono stati addestrati tramite testi curati generati da esseri umani e tratti da internet, articoli scientifici, libri e così via. I sistemi aziendali delle imprese contengono tuttavia vaste quantità di dati generati da esseri umani. Sebbene questi dati non sono accessibili alle aziende che sviluppano i modelli di base a causa della loro riservatezza, le imprese possono sfruttare i propri dati interni in tandem con i modelli di base per creare modelli e ricavare informazioni specifici per l’azienda stessa. Esistono inoltre i dati sui dati umani, ovvero i metadati. Si pensi a cosa avviene quando un essere umano studia una nuova materia tramite un libro. L’apprendimento avviene tipicamente al meglio quando l’essere umano legge il libro, riflette sul suo contenuto, ne rilegge alcune parti, risolve un problema legato alla materia e ne parla con un insegnante. Queste fasi determinano la produzione di dati sui dati generati da esseri umani contenuti nel libro stesso potenziando il processo di apprendimento. I modelli possono replicare tali processi per generare nuovi dati di addestramento, approfondire le proprie conoscenze e migliorare le proprie capacità. Tali modelli, per giunta, stanno divenendo multimodali: in altre parole possono utilizzare non solo testi ma anche audio, immagini o perfino flussi di lavoro digitali su PC e dispositivi mobili per creare modelli del mondo e, in ultima analisi, generare agenti basati sull’IA. Siamo ottimisti sul fatto che esistano dati in abbondanza (sia generati da esseri umani che sintetici7) tramite cui addestrare i modelli.
  4. Miglioramento degli algoritmi: escogitare modi per replicare l’apprendimento umano. I maggiori progressi nel campo dell’IA potrebbero giungere proprio dal miglioramento degli algoritmi. Si pensi al fatto che tali modelli sono costruiti a partire da neuroni digitali che cercano di imitare le capacità di quelli biologici. Il cervello umano, efficiente, dotato di enormi capacità e composto da circa 86 miliardi di neuroni biologici, necessita in media di 20 watt di energia, equivalenti al consumo energetico di una lampadina di piccole dimensioni e di gran lunga inferiori a quella necessaria per eseguire un prompt composto da un migliaio di token tramite un sofisticato modello basato su trasformatori. Perché il cervello umano è tanto più efficiente di tali modelli? Anche se non sappiamo appieno come l’evoluzione abbia portato a una tale efficienza, riteniamo che la versione digitale di questo processo possa mutare nel tempo man mano che un maggior numero di ricercatori entrerà nel campo dell’IA, diverranno disponibili enormi capitali e si continuerà a sperimentare.

Sfruttare il potenziale dei modelli e le capacità degli agenti digitali

Oggi gli utenti utilizzano i modelli di GenAI principalmente tramite interfacce di chat soggette a un alto grado di moderazione. Sono infatti utilizzate tecniche post-addestramento (come il “reinforcement learning from human feedback”, RLHF) per impedire ai modelli di produrre output testuali potenzialmente dannosi prima della loro diffusione presso il pubblico. Seppur necessari, si tratta di metodi grezzi per limitare le capacità di un modello. Via via che i ricercatori acquisiranno una maggiore comprensione dei modelli, tuttavia, gli sviluppatori dovrebbero divenire in grado di costruire i modelli in maniera più precisa, consentendo di sfruttare correttamente e di più il loro potenziale. Poiché gli attuali modelli sono utilizzati in forma di chatbot, la loro ottimizzazione per essere impiegati come agenti non è ancora avvenuta8. Ciononostante, gli sviluppatori stanno riscontrando sempre più capacità da agenti all’interno dei modelli stessi. Siamo fiduciosi sul fatto che i modelli di base emergenti getteranno in ultima analisi le fondamenta di capacità da agenti più potenti, determinando un drastico incremento del loro utilizzo, dei rendimenti finanziari e della domanda delle risorse scarse necessarie per la crescita dei modelli stessi.

Conclusioni

Tutto questo indica che se i modelli continueranno a progredire con un aumento della potenza di calcolo e dei dati e il miglioramento degli algoritmi ci troviamo solamente nelle prime fasi di un periodo di profonda innovazione. Quest’innovazione, a nostro avviso, è in grado di determinare enormi incrementi dell’efficienza e una forte accelerazione della crescita globale. È improbabile però che un mutamento di quest’entità non porti con sé volatilità e incertezza. Solo il tempo ci dirà se le attuali valutazioni sono giustificate e, in ultima analisi, quali imprese tecnologiche e non solo si riveleranno vincitrici in questo campo. Detto ciò, alcuni investitori potrebbero essere tentati di realizzare i guadagni generati dal recente rally tecnologico, ma restiamo convinti che facendo ciò rischiano di lasciarsi sfuggire l’opportunità che, secondo le nostre previsioni, deriverà da una crescita tanto trasformativa.