Nella sua intervista a sei giornali europei, tra cui Il Sole 24 Ore, il presidente francese Emmanuel Macron dice che l’Unione europea dovrebbe fare più debito comune per investire in difesa ma anche in intelligenza artificiale.
Non è chiarissimo come, visto che ormai i capitali che vanno verso data center e chip sono talmente elevati che è difficile che l’UE possa competere con la Silicon Valley, specie finché il suo mercato finanziario rimane frammentato e incapace di far crescere le start up tecnologiche da questo lato dell’Oceano.
Ma il messaggio politico è chiaro: l’AI deve essere una priorità politica. Negli Stati Uniti il presidente Donald Trump e il segretario al Tesoro Scott Bessent sostengono che la Federal Reserve sotto la nuova leadership di Kevin Warsh dovrà tenere ben presente la necessità di finanziare gli investimenti in intelligenza artificiale.
Come ha segnalato il Financial Times, Google, META, OpenAI e poche altre grandi società stanno programmando investimenti in chip e data center per 660 miliardi di dollari: una cifra così elevata che gli investitori hanno spinto al ribasso le azioni, perché risulta difficile credere che tali investimenti si riveleranno mai davvero remunerativi.
Anche per questo Trump vuole che la banca centrale tenga bassi i tassi di interesse per rendere sostenibile l’indebitamento necessario a progetti così colossali.
La cosa strana è che questa corsa agli investimenti si sviluppa in parallelo al crescere dell’allarmismo sulle possibili conseguenze della applicazione dell’AI nel mondo del lavoro e nella società.
La corsa verso l’aumento della produttività, che dovrebbe giustificare gli investimenti delle Big Tech, è anche la corsa verso la fine della società come l’abbiamo conosciuta?
Una settimana fa, Anthropic, la più importante società di AI concorrente di OpenAI, ha annunciato un nuovo strumento che renderà possibile automatizzare molti servizi oggi offerti da aziende software che risulteranno così senza più modello di business o quasi.
Le azioni di gruppi specializzati in data analytics sono crollate: nell’ultimo mese Experian ha perso il 25 per cento della capitalizzazione di Borsa.
Tra gli economisti, nel mondo accademico, non si parla d’altro che di Claude Code, costoso strumento sempre di Anthropic che consente di fare ricerca sui dati a costi e complessità molto inferiori rispetto al passato: quello che nell’immediato appare come un potenziamento delle capacità del singolo ricercatore, nel medio periodo può tradursi nella distruzione del valore dell’esperienza e della competenza tecnica.
Se grazie a Claude Code tutti possono fare ricerca economica, non ci sarà più bisogno di pagare anni di carriera accademica a chi – per professione – si dedicava a sviluppare quel sapere tecnico ormai automatizzato.
A gennaio proprio Dario Amodei, l’amministratore delegato di Anthropic che sta sviluppando queste innovazioni potenzialmente così dirompenti, ha pubblicato online un lungo saggio sui rischi della diffusione dell’intelligenza artificiale.
L’intelligenza artificiale è una tecnologia in una fase di “adolescenza” – scrive Amodei – e come per quella umana, la principale sfida di fronte all’adolescenza è sopravvivere mentre la si attraversa.
In estrema sintesi: Dario Amodei si dice preoccupato perché la tecnologia si evolve così rapidamente che presto molti se non tutti potranno usarla per fare cose potenzialmente problematiche, come per esempio costruire armi biologiche per fare attentati, o condurre attacchi informatici difficili da arginare nel momento in cui agenti artificiali si sfidano per alzare e abbattere barriere a protezione dei nostri dati.
Ma perché uno dei protagonisti dell’innovazione lancia allarmi sulle implicazioni della tecnologia che lui stesso sviluppa?
Per proporre poi come soluzione un patto tra regolatore e azienda: le società di AI si devono dare, come Anthropic, delle “Costituzioni” per impegnarsi a uno sviluppo responsabile dei nuovi strumenti e i governi devono cooperare con loro, perché non riusciranno mai ad adeguare la regolazione e la burocrazia in tempi compatibili con quelli della tecnologia.
Ovviamente, questo non è l’unico approccio, è soltanto l’approccio nell’interesse di Anthropic: la politica potrebbe anche rallentare lo sviluppo della tecnologia per consentire alla società di adattarsi, oppure dare ai cittadini gli strumenti per avere maggiore controllo sui propri dati e costringere le aziende a pagare per usarli nell’addestramento dei modelli o, qualora questa strada non fosse percorribile, usare le tasse sulle aziende tecnologiche per generare gettito e redistribuire alla collettività parte dei benefici prodotti dall’innovazione.
Al netto delle risposte diverse, resta l’allarme di fondo: l’AI sta già andando fuori controllo?
Il rapporto 2025 dell’UNDP, il programma di sviluppo delle Nazioni Unite, analizza ogni aspetto dei possibili impatti sociali dell’AI e sospende il giudizio: “È una questione di scelte. Lo sviluppo dipende meno da ciò che l’IA può fare — non da quanto appaia “umana” — e più dalla capacità di mobilitare l’immaginazione delle persone per rimodellare economie e società così da sfruttarne al meglio il potenziale”.
L’adozione dell’AI in Europa sta andando molto a rilento, soltanto le grandi aziende la stanno davvero applicando mentre quelle piccole e medie sono agli inizi del processo. Secondo un’analisi dell’Unicredit Investment Institute, il tasso di adozione nelle grandi imprese è tra il 40 e il 60 per cento, in quelle piccole e medie spesso sotto il 20 per cento.
Il messaggio rassicurante, da parte di molte aziende, è che si automatizzano le mansioni, non le posizioni: con il supporto dell’AI, i lavoratori umani diventano più produttivi, ma non vengono sostituiti.
Può essere che nell’immediato sia così. Ma come dimostrano gli studi dell’economista del MIT, Danielle Li, nel medio periodo ci sono due incertezze. La prima è che se molti compiti del lavoratore vengono automatizzati, alla fine anche il senso della sua posizione cambia: a breve rischiamo di trasformarci tutti in supervisori di agenti artificiali che fanno alcune delle cose che abbiamo sempre fatto noi. È meglio? È peggio? Saranno lavori più pagati o meno?
Io stesso, per esempio, già supervisiono il lavoro di varie intelligenze artificiali che svolgono mansioni che, quando dirigevo un giornale, affidavo a esseri umani. L’impatto di questa transizione è difficile da prevedere.
Il secondo problema che segnala l’economista Danielle Li è più profondo: oggi è possibile tracciare e trasformare in dati qualunque cosa faccia il lavoratore, e poi usare quei dati come base per addestrare un intelligenza artificiale.
In pratica si possono codificare anche quelle componenti di conoscenza tacita che sono sempre state inseparabili dal lavoratore inteso come persona fisica: le cosiddette soft skills, l’esperienza, il carattere, le inflessioni della voce, le intuizioni, tutto è potenzialmente trasformabile in dati che possono creare repliche digitali delle nostre caratteristiche più personali.
Se il lavoro diventa mobile e trasferibile come il capitale, questo riscrive i rapporti di forza, a danno del lavoratore che deve trovare nuovi modi per difendersi e per ottenere almeno una parte del valore aggiunto che produce.
L’impatto sociale dell’AI, insomma, è una questione politica, non finanziaria o tecnologica. L’automazione nell’età degli agenti artificiali è la nuova frontiera della lotta di classe.
(Estratto da Appunti)










