La sfida energetica dell’alimentazione dei chip IA

-
- Advertising -

Il ritmo di adozione dei software di intelligenza artificiale (AI) è uno dei più rapidi che i mercati abbiano mai visto. I Large Language Model (LLM) utilizzati da ChatGPT e da altri bot simili per generare conversazioni simili a quelle umane sono solo una delle tante nuove applicazioni di AI che si basano sul “calcolo parallelo”, il termine utilizzato per descrivere l’enorme lavoro di calcolo svolto da reti di chip che eseguono molti calcoli o processi contemporaneamente. Al centro dell’infrastruttura di IA ci sono le GPU (unità di elaborazione grafica) che eccellono nel lavoro di calcolo parallelo specializzato e ad alte prestazioni richiesto dall’IA. Tutta questa potenza di elaborazione si traduce in un maggiore consumo energetico e in una maggiore produzione di calore rispetto alle controparti CPU (unità di elaborazione centrale) utilizzate nei PC.

Piccoli chip, notevole impatto sui data center

Le GPU di fascia alta sono circa quattro volte più dense di energia rispetto alle CPU. Ciò comporta nuovi problemi significativi per la pianificazione dei data center, poiché l’alimentazione originariamente calcolata è ora solo il 25% di quella necessaria per far funzionare i moderni data center AI. Anche i data center hyperscale all’avanguardia utilizzati da Amazon, Microsoft e Alphabet per il cloud computing sono ancora basati sulle CPU. A titolo di esempio, il chip A100 attualmente in dotazione a Nvidia ha un consumo energetico costante di circa 400 W per chip, mentre l’assorbimento di energia del suo ultimo microchip, l’H100, quasi raddoppia, con un consumo di 700 W, simile a quello di un microonde. Se un data center hyperscale completo con una media di un milione di server sostituisse i suoi attuali server CPU con questo tipo di GPU, la potenza necessaria aumenterebbe di 4-5 volte (1500MW) – equivalente a una centrale nucleare!

- Advertising -

Questo aumento della densità di potenza significa che questi chip generano anche un calore significativamente maggiore. Di conseguenza, anche i sistemi di raffreddamento devono diventare più potenti. Cambiamenti di potenza e di raffreddamento di tali dimensioni richiederanno progetti totalmente nuovi per i futuri data center guidati dall’intelligenza artificiale. Ciò crea un enorme squilibrio tra domanda e offerta per l’infrastruttura di chip e data center sottostante. Considerando il tempo necessario per costruire i data center, gli esperti del settore prevedono che siamo ai primi inizi di una modernizzazione decennale dei data center finalizzata a renderli più intelligenti.

Cambiamenti strutturali di questa portata comporteranno aggiornamenti massicci non solo dei chip e dei server, ma anche dell’infrastruttura elettrica che fornisce loro l’energia per funzionare.

- Advertising -

Il raffreddamento dei data center è fondamentale per garantire elevate prestazioni del sistema e prevenirne il malfunzionamento. Le soluzioni HVAC tradizionali, che utilizzano l’aria condizionata e le ventole per raffreddare l’aria nelle sale server dei data center, sono sufficienti per le CPU i cui server rack gestiscono densità di potenza comprese tra 3 e 30 kW, ma non per le GPU, le cui densità di potenza superano facilmente i 40kW. Poiché i più recenti rack delle GPU superano questi livelli di potenza, il raffreddamento aggiuntivo a liquido è (ancora una volta) in primo piano. Questi sistemi consentono una dissipazione del calore ancora più elevata a livello di rack di server o di chip, perché i liquidi hanno una maggiore capacità di catturare il calore per unità di volume rispetto all’aria. Tuttavia, alcune delle sfide più importanti per il raffreddamento a liquido sono: 1) la mancanza di progetti e componenti standardizzati per questi sistemi, 2) le diverse opzioni tecnologiche, come il raffreddamento dei chip o dei rack, e 3) i costi elevati per i tubi e le misure per prevenire le perdite.

Previsioni sulla rivoluzione dell’IA e il suo impatto sui requisiti energetici dei data center

La rivoluzione dell’intelligenza artificiale richiederà una completa reingegnerizzazione dell’infrastruttura dei data center dall’interno per soddisfare le esigenze energetiche molto più elevate della nuova tecnologia AI. Ciò comporterà un forte aumento della domanda e degli investimenti per i data center con applicazioni di calcolo a basso consumo, soluzioni HVAC e di gestione dell’energia efficienti dal punto di vista energetico: tutte queste soluzioni per l’efficienza energetica dei Big Data sono aree di investimento chiave.

I profitti delle aziende che forniscono soluzioni di efficienza energetica ai data center dovrebbero registrare una forte crescita. Ciò ha portato anche a una rivalutazione del mercato. Visto il forte slancio e i driver strutturali sottostanti, apprezziamo particolarmente questa parte dell’universo degli investimenti smart energy. Riteniamo inoltre che questo settore possa essere avulso da una potenziale recessione, in quanto la spesa per i tanto necessari data center e per le relative soluzioni di efficienza energetica non dipenderà dal ciclo economico.