Ciclone Deepseek può spingere diffusione IA, avvantaggiare Facebook e Amazon
L’innovazione di DeepSeek ha profonde implicazioni per il capex dell’IA, la sua adozione e la concorrenza globale. Non c’è da stupirsi che abbia scosso i mercati.
Lunedì DeepSeek, un laboratorio cinese di IA finora sconosciuto, ha messo sotto sopra tutte le ipotesi sull’analisi economica dell’IA, scatenando un crollo da 1.000 miliardi di dollari dei titoli tecnologici statunitensi ed europei.
DeepSeek ha presentato un nuovo LLM (large learning model), sostenendo di averlo realizzato in soli due mesi, con meno di 6 milioni di dollari, sfruttando la tecnologia e i modelli esistenti – rispetto ai 5 miliardi di dollari che OpenAI investe ogni anno. L’azienda avrebbe ottenuto questo risultato con sole 10.000 unità di elaborazione grafica (GPU) di Nvidia – processori specializzati ottimizzati per i calcoli su larga scala richiesti dall’IA – che rappresentano una frazione dell’hardware utilizzato da hyperscaler come Amazon e Microsoft, grandi fornitori di servizi cloud che gestiscono enormi datacenter per alimentare i servizi di cloud computing e IA.
A nostro avviso, DeepSeek ha scoperto e condiviso apertamente una serie di tecniche intelligenti e innovative che riducono drasticamente il costo di progettazione dei modelli di IA di grandi dimensioni, e questo avrà un impatto profondo sul settore tecnologico.
Il suo approccio trasparente probabilmente scatenerà un’esplosione di nuovi modelli e farà scendere ulteriormente i costi. Una lavorazione più economica dei modelli migliora anche il “ritorno sul capitale investito” per gli hyperscaler, rendendo più efficienti gli investimenti nell’IA. Sebbene le sue affermazioni richiedano ancora una verifica indipendente, la mancanza di reazioni da parte dei commentatori del settore, degli analisti e la reazione stessa del mercato finanziario suggeriscono che questa svolta viene presa sul serio.
Rallentamento del capex nel breve periodo
Il sell-off riflette i timori di un “vuoto d’aria” negli investimenti per le infrastrutture di IA. Per anni, il settore tecnologico ha strutturato casi di investimento nella convinzione che lo sviluppo di modelli di IA competitivi richiedesse investimenti hardware massicci e budget apparentemente illimitati.
Storicamente, una tecnologia più economica registra un’adozione molto più ampia, e lo stesso potrebbe accadere con l’IA nel corso del tempo. Tuttavia, questo cambio di passo nell’efficienza dei modelli suggerisce che probabilmente assisteremo a una pausa significativa negli investimenti in IA, mentre il settore si adegua alla nuova realtà.
Una delle nostre opinioni più ricorrenti negli ultimi 12 mesi è stata che “il bisogno è la madre di tutte le innovazioni” e, sebbene l’efficacia e la velocità (in attesa di verifica) ci abbiano sorpreso, il fatto che la tecnologia cinese stia recuperando terreno non dovrebbe essere una sorpresa. Pechino è stata infatti costretta a ricorrere all’innovazione a causa dei vincoli imposti sul fronte della fornitura di chip.
Utilizzando hardware datato e tecniche innovative, DeepSeek ha dimostrato che lo sviluppo di un’IA all’avanguardia non è più appannaggio esclusivo delle aziende che hanno accesso ai chip più recenti. Questo solleva ulteriori domande sulla sostenibilità della leadership statunitense nella tecnologia dell’IA e sull’impatto a lungo termine delle restrizioni alle esportazioni.
A nostro avviso, quanto accaduto convalida le preoccupazioni che da tempo nutriamo per le sfide con cui devono fare i conti le catene di fornitura dei semiconduttori e dei data center, con l’intensificarsi della concorrenza e il concretizzarsi dei rischi di eccesso di offerta. La scoperta di DeepSeek accelera questo cambiamento.
L’opportunità
Al tempo stesso, DeepSeek mostra l’enorme opportunità che rappresenta un’IA a prezzi accessibili. Riducendo i costi di lavorazione e i requisiti hardware, democratizza l’accesso allo sviluppo dell’IA, aprendo la strada a una proliferazione di nuovi modelli e applicazioni. Questo potrebbe innescare un ciclo di upgrade significativo per l’infrastruttura di calcolo esistente, in quanto l’IA generativa passa dall’essere centralizzata in data center iperscalati al funzionare su dispositivi più piccoli e distribuiti.
L’inferenza, ovvero l’utilizzo di modelli di IA per previsioni o specifiche applicazioni dopo che sono stati addestrati, potrebbe presto funzionare direttamente su smartphone, PC, automobili e occhiali per la realtà aumentata (AR). Questo segna una potenziale “esplosione cambriana” dell’adozione dell’IA, in cui il suo uso diventa onnipresente, trasformando i settori industriali e la vita quotidiana.
D’altra parte, questo potrebbe anche rendere l’adozione dell’IA da parte delle aziende molto più appetibile, risolvendo il problema dei costi. Se questo rappresenta un cambio di passo nelle leggi di scalabilità dell’IA – le regole che governano il miglioramento delle prestazioni con l’aggiunta di risorse – la produttività delle GPU risulterebbe migliorata in modo significativo, aumentando il ritorno sull’investimento (ROI).
Le GPU già installate potrebbero essere riutilizzate per questi modelli più efficienti, riducendo la barriera dei costi di ingresso. Questo potrebbe avvantaggiare i fornitori di software e i giganti tecnologici integrati verticalmente come Facebook e Amazon, che possono migliorare il ROI dei loro servizi di IA interni. Naturalmente, il dibattito se le aziende “costruiranno” internamente o “acquisteranno” soluzioni di IA offerte dall’esterno rimane aperto, complicando ulteriormente il panorama competitivo lato software e rafforzando la necessità di una selezione più attenta dei titoli.
Il settore tecnologico vive di continue innovazioni e auto-interruzioni, ma la scoperta di DeepSeek ci ricorda una volta di più quanto le facili supposizioni possano essere velocemente ribaltate. Gli investitori devono non solo intercettare i trend, ma anche capire a che punto del ciclo di monetizzazione ci troviamo, identificando tempistiche e le aree di redditività.

LMF green
Mente e denaro
Sala Stampa