IA e crisi energetica: le opportunità di investimento nel settore tecnologico

-

Tradizionalmente, l’ostacolo principale per soddisfare l’insaziabile domanda di tecnologia e potenza dei computer è stata l’economia. Tuttavia, sia il rallentamento della legge di Moore sia il passaggio da un modello capex a uno rental con l’adozione del cloud computing, fanno sì che i vincoli energetici stiano diventando il limite principale all’adozione dell’intelligenza artificiale (AI). Per mettere la questione in prospettiva: la capacità dei computer è cresciuta di oltre il 50%, trimestre su trimestre, dai primi tre mesi del 2023.

I data center sono spesso considerati la spina dorsale o il “cervello” di Internet. Elaborano, immagazzinano e mettono in rete grandi quantità di dati alla base dei servizi informatici che utilizziamo quotidianamente, come lo streaming video, i giochi e l’intelligenza artificiale. L’“aggiornamento” di questi data center con capacità di IA, unità di elaborazione grafica (GPU) e le relative infrastrutture, sta comportando uno stress estremo per le reti elettriche, la capacità di generazione e l’ambiente.

In particolare, la maggior parte dei dati critici per le grandi aziende risiede ancora all’interno delle aziende stesse. L’applicazione dell’intelligenza artificiale a questi dati è ancora più costosa a causa dei limiti di potenza elettrica, in quanto gli hyperscaler (le grandi aziende tecnologiche che gestiscono data center estesi e servizi cloud su scala) hanno un’efficienza energetica nettamente superiore rispetto ai data center aziendali.

Gli analisti di Gartner stimano che entro il 2027 l’utilizzo di energia da parte dei data center di intelligenza artificiale raggiungerà i 500 terawattora (TWh), equivalenti all’intero consumo energetico della Germania nel 2022. Inoltre, per ogni sterlina spesa per un server di intelligenza artificiale, entro il 2027 sarà necessario mettere a bilancio 35 pence in più per l’elettricità.

Figura 2: Con la continua accelerazione della crescita, l’IA sta consumando una quantità sproporzionata dell’energia totale a livello globale.

Fonte: semianalisi da www.semianalysis.com/p/ai-datacenter-energy-dilemma-race

Quindi cosa si può fare?

Per evitare di bloccare la crescita dell’adozione dell’IA, dobbiamo affrontare le proiezioni sulla produzione di energia. Attualmente, si stima che il 40% dei data center esistenti sarà limitato dalla potenza disponibile. L’accesso alle fonti di energia sta diventando un fattore di differenziazione del business fondamentale per gli hyperscaler. In alcune regioni è già impossibile ottenere un’alimentazione supplementare, impedendo la creazione di nuovi data center.

Non esistono soluzioni rapide per aumentare la produzione di energia. Il settore è stato colpito da una carenza di rame e una tipica miniera richiede circa 10-15 anni per essere esplorata, sviluppata e messa in funzione.

Per affrontare queste sfide, l’intera filiera tecnologica sta esplorando modi alternativi per migliorare l’efficienza energetica, che di per sé rappresentano delle opportunità di investimento. Gli sforzi possono essere a grandi linee classificati in tre aree:

  • Innovazione del packaging dei semiconduttori: progressi nei materiali di imballaggio, nei chiplet (più chip su un singolo silicio) e nei progetti di memoria per una comunicazione più veloce e un consumo energetico inferiore.
  • Innovazione dei software: ottimizzazione del posizionamento dei dati per un utilizzo efficiente da parte degli strumenti di intelligenza artificiale.
  • Nuova architettura dei data center: innovazioni nel posizionamento dei server, nella riorganizzazione dello spazio con le GPU al centro e nelle tecnologie di raffreddamento (il raffreddamento rappresenta attualmente un terzo dei costi operativi dei data center).

Oltre i chip

Oltre alla riprogettazione di chip, server e data center per una maggiore efficienza energetica, il settore tecnologico sta sfruttando l’intelligenza artificiale per gestire i data center in modo più intelligente. Le operazioni di intelligenza artificiale possono aiutare a spegnere i chip e a riaccenderli quando necessario, migliorando l’efficienza energetica. Sarebbe ingenuo ignorare l’influenza della geopolitica e della regolamentazione su questo tema. Il prossimo dibattito politico riguarderà probabilmente l’effetto a catena della domanda di energia dell’IA sui prezzi dell’energia e l’impatto sulle industrie non tecnologiche e con margini bassi.

La corsa globale all’acquisizione delle competenze per l’IA non riguarda solo l’acquisto di GPU, ma anche la costruzione di un’infrastruttura sostenibile e resiliente in grado di alimentare il futuro della tecnologia.