Chart of the Week – Deepflation
La scorsa settimana, i mercati sono stati scossi dalla notizia che DeepSeek R1, un large language model (LLM) sviluppato da un hedge fund cinese, abbia prestazioni pari a quelle degli ultimi LLM, ma sia stato addestrato a una minima parte del loro costo. Generare intelligenza artificiale potrebbe quindi costare meno e richiedere meno unità di elaborazione grafica (GPU) di fascia alta, così come meno elettricità del resto, e quando l’intelligenza artificiale diventa più economica, si genera un ciclo positivo di feedback con un numero sempre maggiore di possibili utilizzi e investimenti da parte dei consumatori. In effetti, la deflazione dei costi dell’intelligenza artificiale per i LLM è già in atto, con il fabbisogno di calcolo necessario per raggiungere un livello costante di servizio che si è dimezzato ogni otto mesi a partire dal 2012.
Ciononostante, la spesa per l’addestramento dei modelli è aumentata in modo costante, mentre le aziende gareggiano per costruire un’intelligenza artificiale “generale” (AGI) – un modello che superi gli esseri umani in ogni ambito. Se l’obiettivo è l’AGI, un maggior numero di GPU, GPU migliori e una migliore efficienza di calcolo saranno tutti elementi utili. Quando un fattore diventa più economico, si può investire più capitale, non di meno: la nostra scommessa è che la curva rappresentata nel grafico continuerà a crescere.