AI è diventata una delle nuove grandi industrie energivore del terzo millennio
L’intelligenza artificiale sta vivendo una fase di accelerazione senza precedenti, ma dietro la promessa di modelli sempre più potenti, veloci e “intelligenti” si nasconde un costo che finora è rimasto ai margini del dibattito pubblico: l’energia. E non si tratta di un dettaglio tecnico, bensì di una variabile destinata a incidere su infrastrutture, mercati elettrici, politiche industriali e obiettivi climatici.
Le stime circolate negli ultimi mesi, secondo cui una singola interrogazione complessa a modelli di grandi dimensioni come ChatGPT può consumare fino al doppio dell’energia utilizzata da una famiglia media statunitense in un minuto, aiutano a rendere tangibile la scala del fenomeno. Prese singolarmente, queste cifre possono sembrare marginali. Moltiplicate per miliardi di query quotidiane e sommate ai costi energetici enormi dell’addestramento dei modelli, restituiscono però un quadro molto diverso: l’AI è diventata una delle nuove grandi industrie energivore del terzo millennio.

Dove si consuma davvero l’energia dell’AI
Il consumo non si concentra solo nell’uso quotidiano delle applicazioni. Anzi, la fase più dispendiosa resta l’addestramento dei modelli, che richiede settimane o mesi di calcolo continuo su migliaia di GPU ad alte prestazioni. Questi processi avvengono nei data center, strutture che già oggi assorbono una quota crescente della domanda elettrica globale e che, con l’avvento dell’AI generativa, stanno cambiando natura: più densità di calcolo, più raffreddamento, più continuità di fornitura.
Secondo diverse analisi di settore, un singolo grande modello di linguaggio può generare emissioni di CO₂ comparabili a quelle di migliaia di voli aerei se alimentato da un mix energetico non rinnovabile. Anche l’uso quotidiano, il cosiddetto inference, pesa sempre di più, perché l’AI non è più uno strumento per pochi specialisti ma un’infrastruttura diffusa, integrata nei motori di ricerca, nei software aziendali, nei servizi pubblici e nei dispositivi personali.
Per inference si intende la fase di utilizzo operativo di un modello di intelligenza artificiale, cioè il momento in cui il modello già addestrato viene messo al lavoro per produrre risposte, previsioni o decisioni a partire da nuovi dati. In termini semplici:
Training (addestramento) il modello “impara” dai dati, regolando milioni o miliardi di parametri. È una fase lunga, costosa e molto energivora.
Inference il modello applica ciò che ha imparato per rispondere a una domanda, generare un testo, riconoscere un’immagine, tradurre una frase o suggerire una decisione.
Quando si pone una domanda a ChatGPT, quando un motore di ricerca usa l’AI per riassumere una pagina, o quando un algoritmo riconosce un volto in aeroporto, si sta attivando un processo di inference.
Una questione economica prima ancora che ambientale
L’impatto energetico dell’AI non è solo un problema climatico, ma anche economico e geopolitico. L’accesso a energia abbondante, stabile e a basso costo sta diventando un fattore competitivo cruciale. Non a caso, i grandi player tecnologici stanno investendo direttamente in impianti rinnovabili, contratti di lungo periodo per l’energia (PPA) e, in alcuni casi, guardano persino al ritorno del nucleare come fonte affidabile per alimentare i data center.
Questo spiega perché la geografia dell’AI stia seguendo sempre più quella dell’energia: regioni con reti elettriche robuste, capacità rinnovabile scalabile e tempi autorizzativi rapidi stanno attirando investimenti miliardari. Al contrario, i colli di bottiglia energetici rischiano di diventare un freno strutturale allo sviluppo dell’intelligenza artificiale.
Efficienza, non solo potenza
Il paradosso è evidente: mentre l’AI viene spesso presentata come strumento chiave per ottimizzare consumi, ridurre sprechi e accelerare la transizione verde, la sua stessa crescita rischia di aggravare il problema che promette di risolvere. Da qui nasce una nuova corsa all’efficienza: modelli più piccoli, architetture meno energivore, chip specializzati, algoritmi ottimizzati per fare “di più con meno”.
Nei prossimi anni, la sfida non sarà solo sviluppare AI più intelligenti, ma AI energeticamente sostenibili. Perché senza un cambio di paradigma – tecnologico, infrastrutturale e regolatorio – l’intelligenza artificiale rischia di diventare una delle principali voci della bolletta energetica globale. E a quel punto, la domanda non sarà più quanto l’AI può fare per noi, ma quanto siamo disposti a pagarla, in energia e in emissioni.

LMF green
Mente e denaro
Sala Stampa