“Non comprendiamo ancora appieno il fabbisogno energetico di questa tecnologia”. Questo monito sull’intelligenza artificiale (AI) non viene da un attivista ambientale, ma da una star del settore, il fondatore stesso di OpenAI, Sam Altman. Pronunciate il 16 gennaio a margine del summit di Davos, in Svizzera, le parole del padre del robot conversatore ChatGPT non sono isolate.
IL CONSUMO ENERGETICO DELL’INTELLIGENZA ARTIFICIALE
Secondo un rapporto pubblicato il 24 gennaio dall’Agenzia internazionale dell’energia, l’elettricità consumata dai data center digitali del mondo è destinata a raddoppiare entro il 2026, soprattutto a causa dell’aumento dell’IA e delle criptovalute. Il fabbisogno potrebbe passare dai 460 TWh del 2022, pari al 2% della domanda globale (di cui il 25% per le criptovalute), a 1.050 TWh, un salto equivalente al consumo di un ulteriore Paese, dell’ordine di quello tedesco.
Secondo il Boston Consulting Group, citato da Bloomberg, i data center statunitensi potrebbero triplicare il loro consumo entro il 2030, raggiungendo i 390 TWh.
Un fornitore di data center che raddoppiava il suo consumo di elettricità ogni cinque anni potrebbe presto raddoppiarlo ogni anno, con il graduale arrivo di supercomputer che ospitano schede grafiche molto potenti, destinate alla formazione o alle richieste degli utenti di modelli di intelligenza artificiale e servizi come ChatGPT, spiega un dirigente del settore. Un supercomputer consuma circa cinque volte più energia di un normale server. Ancora molto minoritarie, queste schede specializzate sono oggetto di una gara: Meta (Facebook, Instagram) prevede di possedere 350.000 schede di ultima generazione del leader Nvidia entro la fine del 2024.
L’esplosione della domanda di elettricità legata all’intelligenza artificiale sta già avendo conseguenze locali: negli Stati Uniti, sta generando tensioni sui progetti di nuovi data center nella “Data Center Alley” della Virginia settentrionale. Nella regione di Kansas City, secondo Bloomberg, ha spinto un fornitore di energia a posticipare la data di chiusura di una centrale elettrica a carbone.
DIGITALE ED ENERGIA PULITA
In Francia, nota per l’energia nucleare, classificata come low carbon, alla fine di ottobre il consiglio comunale di Marsiglia ha approvato una risoluzione sul ruolo dei data center, mentre l’ecologista Sébastien Barles ha chiesto una “moratoria”. Le Monde ha riferito alla fine del 2023 che Marsiglia ha cinque centri dati e undici progetti, grazie ai sedici cavi sottomarini per il traffico Internet collegati al porto. Anche altri hub di rete, come Amsterdam, Londra e Dublino, hanno suscitato un dibattito sulla moratoria dei nuovi centri. In Francia è già previsto il distacco volontario del carico in caso di picchi di consumo locale.
Finora i giganti dell’industria digitale e dei data center hanno sottolineato i loro grandi passi avanti nell’efficienza energetica: a livelli di elettricità costanti, la capacità di calcolo è esplosa. Per evitare le critiche sulle emissioni di CO2, ora acquistano l’equivalente del loro consumo di energia rinnovabile, come hanno fatto Google, Meta e Amazon, i maggiori acquirenti al mondo. Ma la difficoltà di creare una capacità rinnovabile sufficiente a soddisfare la domanda e la prevista esplosione dell’elettrificazione legata all’automobile e alla reindustrializzazione porteranno probabilmente a un vicolo cieco.
“Non c’è modo di farlo senza una svolta scientifica”, ha profetizzato Altman. “È questo che ci spinge a investire ancora di più nella fusione nucleare”, ha aggiunto l’azionista di una start-up del settore, Helion Energy.
Per altri, scommettere sulla nascita di un’elettricità illimitata e priva di emissioni di carbonio è un azzardo pericoloso e una corsa a perdifiato verso il futuro. È persino una crudele ironia, in un momento in cui gli apostoli dell’intelligenza artificiale proclamano che essa può “salvare il clima”. “Non possiamo generare magicamente più energia. Dobbiamo smettere di mettere l’IA generativa ovunque e ridurne il consumo, immediatamente” ha twittato Sasha Luccioni, della start-up di IA Hugging Face. L’urgenza sarebbe quella di creare modelli di IA più piccoli e più adatti alle esigenze, e anche di limitarne l’uso non necessario. Con una paradossale nota di speranza, i giganti digitali potrebbero seguire l’esempio, perché il consumo di elettricità dell’IA ha un corollario: il suo costo ancora esorbitante, che minaccia la redditività della tecnologia.
(Estratto dalla rassegna stampa di eprcomunicazione)