L’intelligenza artificiale promette di cambiare tutto: produttività, educazione, medicina, persino la politica. Ma mentre tutti discutono di algoritmi e regolamentazione, nessuno parla del suo vero carburante: l’elettricità.
Secondo un’inchiesta del MIT Technology Review (“We did the math on AI’s energy footprint”, ottobre 2025), la rivoluzione dell’AI rischia di diventare la più grande crisi energetica nascosta della storia digitale.
IL LATO OSCURO DELL’INNOVAZIONE
Ogni risposta generata da ChatGPT, ogni immagine creata da Midjourney o video sintetico prodotto da Sora, brucia energia. Poca, se vista isolatamente. Ma sommando miliardi di richieste al giorno, il risultato è un consumo colossale.
Nel 2024 i data center americani hanno assorbito circa 200 terawattora di elettricità, l’equivalente dell’intera Thailandia. Di questi, tra 53 e 76 TWh sono stati usati solo per l’AI. Entro il 2028, quella cifra potrebbe triplicare, fino a rappresentare il 12% di tutta l’energia degli Stati Uniti.
È un salto epocale. Dopo decenni in cui l’efficienza compensava la crescita digitale, oggi il sistema informatico mondiale consuma più di quanto riesca a risparmiare.
E, nonostante le retoriche “green” della Silicon Valley, quasi il 60% di questa energia arriva ancora da fonti fossili.
LA FAME COSTANTE DELL’AI
Come ricorda nel report il CEO di Mawson Infrastructure Group, Rahul Mewawalla, “i data center che supportano l’intelligenza artificiale hanno bisogno di energia continua, 24 ore al giorno, 365 giorni l’anno”.
Questo significa che non possono affidarsi a fonti intermittenti come eolico o solare, e in media utilizzano elettricità più “sporca” della media nazionale.
La conseguenza è che l’espansione dell’AI non si accompagna a una rivoluzione verde, ma a una nuova dipendenza da centrali a gas e carbone.
UN CLICK, UNA SCOSSA
Per comprendere l’ordine di grandezza, il MIT Technology Review ha misurato il consumo medio di energia per una singola interazione:
- Un prompt testuale con un modello come Llama 3.1 8B usa circa 114 joule, l’equivalente di accendere un microonde per un decimo di secondo.
- Con modelli più grandi, come Llama 405B, si sale a 6.700 joule, cioè otto secondi di microonde.
- Un’immagine generata da Stable Diffusion 3 richiede circa 2.300 joule.
- Un breve video da cinque secondi con CogVideoX, 3,4 milioni di joule: come far correre una bici elettrica per 38 miglia.
Il problema è la scala. ChatGPT riceve ormai un miliardo di messaggi al giorno e genera decine di milioni di immagini. Sommando i consumi, si arriva a oltre 100 gigawattora l’anno, quanto 10.000 case americane.
E questa è solo la punta dell’iceberg: presto i modelli “ragionanti” e gli agenti autonomi lavoreranno in modo continuo, moltiplicando esponenzialmente la domanda di energia.
LA CORSA AI REATTORI
Le Big Tech reagiscono con una strategia senza precedenti.
OpenAI e l’amministrazione Trump hanno annunciato il progetto Stargate: 500 miliardi di dollari per dieci mega data center, ognuno alimentato da centrali da 5 gigawatt. Meta e Microsoft investono in mini-reattori modulari. Google spenderà 75 miliardi di dollari nel 2025 solo per infrastrutture AI.
Non si tratta più di un’economia digitale “leggera”: è una nuova industria pesante, fatta di cemento, rame, acqua e uranio.
PERCHÉ LA BOLLETTA SALE
Il MIT Technology Review ha analizzato anche le conseguenze per i consumatori.
Uno studio condotto da Harvard nel 2024 mostra che gli accordi tra le utility e le aziende dell’AI stanno scaricando parte dei costi sulle famiglie.
Le compagnie elettriche offrono sconti miliardari ai giganti tecnologici per attrarre i loro data center. Per compensare il minor margine, aumentano le tariffe per tutti gli altri utenti.
In Virginia, dove si concentra la “data center alley” americana, i cittadini pagheranno fino a 37,50 dollari in più al mese per coprire i consumi dei nuovi impianti.
Lo stesso schema potrebbe ripetersi anche in Europa. In Irlanda, il boom dei server di Amazon e Meta ha messo in crisi la rete elettrica nazionale. In Italia, l’ENEA stima che il comparto cloud rappresenti già il 3% dei consumi elettrici: con la diffusione dell’AI generativa, quella quota potrebbe raddoppiare entro cinque anni.
UN’ECONOMIA OPACA
Il vero problema è la mancanza di trasparenza.
Le aziende che producono modelli come GPT-4, Gemini o Claude non pubblicano dati sui consumi: li considerano segreti industriali. Perfino il Lawrence Berkeley National Laboratory denuncia di non avere dati sufficienti per stimare l’impatto reale dell’AI sulla rete elettrica.
In assenza di obblighi di rendicontazione, né i governi né i cittadini sanno quanta energia serva per far funzionare un chatbot o un generatore di immagini, né quanta CO₂ venga emessa per mantenerlo in funzione.
IL NUOVO CAPITALISMO DELL’AI
L’AI non è solo software. È infrastruttura fisica, cemento e rame, gas e uranio. E come ogni grande rivoluzione industriale, sta creando vincitori e vinti: le piattaforme che accumulano potenza di calcolo e i Paesi che pagano la bolletta.
Se nel Novecento il potere si misurava in barili di petrolio, nel XXI secolo si misura in teraflop. Ma anche questa energia ha un costo, economico e ambientale.
LA DOMANDA CHE RESTA
L’intelligenza artificiale è il simbolo del progresso, ma anche la sua contraddizione: per far funzionare il cervello digitale del mondo stiamo accendendo nuove centrali a gas e rinviando la decarbonizzazione.
L’AI promette efficienza, ma richiede potenza. E mentre ci abituiamo a chiederle risposte su tutto, ce n’è una che dovrebbe porci lei:
quanto costa davvero, e chi sta pagando la sua bolletta?





