La frase è emersa quasi di passaggio, nel corso di una chiacchierata di quasi tre ore tra Elon Musk, Dwarkesh Patel e John Collison. Patel è un podcaster e divulgatore diventato negli ultimi anni un punto di riferimento nella Silicon Valley per conversazioni su intelligenza artificiale e scenari di lungo periodo. Collison, cofondatore di Stripe, porta invece il punto di vista di chi costruisce infrastrutture digitali globali e ne conosce bene i vincoli industriali. Non un keynote, non un annuncio ufficiale, ma una conversazione informale, lontana dai palchi e dalle slide per investitori. Proprio per questo interessante.
Quando Musk parla a lungo, senza dover vendere un prodotto o rassicurare il mercato, emergono più ossessioni che slogan. E una di queste, oggi, è chiarissima: l’intelligenza artificiale sta per scontrarsi con un limite molto meno glamour del machine learning. L’energia.
Nel corso dell’intervista Musk torna più volte sullo stesso punto. I modelli crescono in modo esponenziale, la produzione di chip accelera, ma la capacità di generare elettricità, soprattutto fuori dalla Cina, resta sostanzialmente piatta. È un disallineamento strutturale che il mondo tecnologico continua a sottovalutare. Per anni abbiamo vissuto nell’illusione che la scalabilità fosse un problema di software, cloud e capitale. L’AI sta dimostrando il contrario. È diventata un problema di fisica industriale.
Da qui nasce l’affermazione che ha fatto discutere: entro 30 o 36 mesi, sostiene Musk, il posto più economicamente conveniente per fare intelligenza artificiale potrebbe essere lo spazio. Presa isolatamente, suona come una provocazione. In parte lo è. Ma fermarsi alla battuta significa perdere il punto centrale del ragionamento.
Il vero tema non è portare domani i data center in orbita. È riconoscere che l’AI, per come la stiamo immaginando, richiede quantità di energia che il sistema terrestre fatica sempre più a fornire. Non solo per limiti tecnici, ma per vincoli regolatori, tempi autorizzativi, opposizioni locali e rigidità politiche. E anche perché la concentrazione di grandi infrastrutture energivore ha effetti diretti sul prezzo dell’energia, spesso a discapito delle comunità locali.
Non è una dinamica astratta. Nei mesi scorsi ho posto su queste pagine una domanda volutamente semplice: chi paga la bolletta dell’intelligenza artificiale? La risposta, sempre più spesso, è che una parte dei costi viene scaricata sui territori. Data center attratti da accordi energetici favorevoli, reti sotto stress, prezzi che aumentano per famiglie e imprese non coinvolte nella corsa all’AI. Una combinazione che rende politicamente esplosivo spiegare ai cittadini perché l’elettricità deve costare di più per alimentare modelli e infrastrutture digitali.
Oggi un grande data center non è più una semplice infrastruttura IT. È un impianto industriale energivoro, con problemi simili a quelli di una centrale elettrica. Musk lo dice in modo brutale: chi ha vissuto nel “software land” sta per ricevere una dura lezione di hardware. È difficile dargli torto. Puoi progettare un modello in pochi mesi, ma non puoi costruire una rete elettrica, una centrale o una filiera energetica con la stessa velocità. E senza energia, anche la migliore GPU resta inutilizzata.
È in questo contesto che l’idea dell’AI nello spazio acquista una sua logica. Non come soluzione immediata, ma come estensione estrema di un problema reale. In orbita, l’energia solare è continua. Niente notte, niente nuvole, niente atmosfera. Il costo marginale non è il combustibile, ma la superficie installata. Una logica completamente diversa da quella terrestre, dove ogni megawatt aggiuntivo implica permessi, infrastrutture e conflitti.
Il vero ostacolo, naturalmente, è il calore. Nello spazio non esiste la convezione: il calore non si disperde, si irradia. Questo significa radiatori enormi, temperature operative più alte e densità di calcolo molto più basse rispetto ai data center terrestri. Altro che rack ipercompressi. In orbita, l’AI si paga in metri quadrati, non in megawatt.
Ed è qui che cade la narrativa più semplicistica. L’AI nello spazio non è una scorciatoia miracolosa né una tecnologia pronta. Richiede chip progettati diversamente, architetture distribuite, moduli piccoli, ridondanza estrema e una tolleranza al guasto che l’industria IT tradizionale non ha mai dovuto sviluppare. Anche per questo la timeline dei 30 mesi va letta per quello che è: uno strumento manageriale, non una previsione neutrale. Musk spinge sempre sul fattore limitante per forzare il sistema a muoversi. Lo ha fatto con i razzi, con le auto elettriche, con la produzione industriale. A volte ha avuto ragione, altre volte no.
C’è però un elemento che va oltre la singola provocazione e merita attenzione. La verticalizzazione. SpaceX controlla l’accesso allo spazio, Tesla lavora su energia, batterie e robotica, xAI costruisce i modelli. Non è una collezione di aziende, ma una scommessa industriale integrata sull’AI come infrastruttura fisica, non solo digitale. In questo schema, lo spazio non è fantascienza. È una possibile estensione del sistema energetico.
Il messaggio di fondo, quindi, non è che faremo AI in orbita nel giro di pochi anni. È un altro, molto più scomodo: la competizione sull’intelligenza artificiale si giocherà sempre meno sugli algoritmi e sempre più sui vincoli materiali. Energia, chip, materiali critici, capacità produttiva. La geopolitica dell’AI non passa solo dai modelli, ma dalle centrali elettriche e dalle catene di fornitura.
Ed è qui che emerge il nodo europeo. Un continente che fatica a costruire una linea elettrica, che ha rimosso il nucleare dal dibattito per decenni e che continua a trattare l’energia come un problema politico più che industriale rischia di restare spettatore. Mentre Stati Uniti e Cina ragionano in termini di terawatt, in Europa continuiamo a discutere di megawatt e autorizzazioni.
L’AI nello spazio forse non arriverà nei tempi di Musk. Ma il muro energetico sì. E arriverà molto prima di quanto siamo pronti ad ammettere.






