Skip to content

anthropic

Aggiungi Startmag.it

alle tue fonti preferite su Google

Vi spiego le tensioni tra Anthropic e Pentagono

Anthropic deve navigare su un cruciale dilemma dell’epoca della sicurezza nazionale. Anche perché rivendica di mantenere, più di OpenAI, la missione di un’intelligenza artificiale non del tutto sottoposta a vincoli commerciali e politici. L'analisi di Aresu.

Anthropic, l’azienda fondata da alcuni fuoriusciti da OpenAI, a partire dai fratelli di origine italiana Dario e Daniela Amodei, è al centro della scena sui principali temi che riguardano lo sviluppo dell’intelligenza artificiale e le sue implicazioni economiche e politiche.

Da un lato, Anthropic ha concentrato i suoi sforzi non sulla creazione di una ampia base di singoli utenti, ma nella realizzazione di soluzioni per imprese. In questo senso, l’azienda guidata da Amodei si impegna nella definizione di “intelligenza artificiale generale” utilizzata da OpenAI nel 2018, e cioè “sistemi autonomi in grado di superare gli umani nella maggior parte dei lavori con un valore economico”, puntando a prendere fette di ampi mercati (tra cui i servizi di software, la consulenza, la gestione patrimoniale, e molti altri). Così, Anthropic aumenta i suoi ricavi e il suo valore, anche a vantaggio dei suoi maggiori azionisti: Amazon e Google.

Inoltre, l’azienda di Amodei ha un peculiare posizionamento che riflette i dilemmi dell’epoca del capitalismo politico. Come ho già avuto occasione di sottolineare, Amodei è emerso come l’avversario interno per eccellenza della posizione di Jensen Huang sulla Cina, sottolineando per i suoi interessi, identificati con gli interessi statunitensi, l’esigenza di mantenere e rafforzare i controlli sulle esportazioni, al contrario della posizione altrettanto interessata da “colomba” del leader di NVIDIA. Ciò ha portato a polemiche aspre, che peraltro non hanno impedito ai due di fare affari.

Allo stesso tempo, Anthropic deve navigare su un cruciale dilemma dell’epoca della sicurezza nazionale. Rivendica di mantenere, più di OpenAI, la missione di un’intelligenza artificiale non del tutto sottoposta a vincoli commerciali e politici, ma anzi “costituzionale”. La narrazione di Anthropic, e quindi la sua strategia per attrarre e mantenere i talenti, è anche costruita da Daniela Amodei, che rivendica l’importanza degli studi umanistici nell’era dell’intelligenza artificiale, e da Amanda Askell, la filosofa che parla col modello Claude attraverso lunghissime istruzioni per radicare in esso una “Costituzione”. Per usare una categoria di Raffaele Alberto Ventura, con Anthropic la “classe disagiata” va in paradiso: nel paradiso occupazionale del vertice della piramide dell’intelligenza artificiale.

Il dilemma riguarda però la posizione più ampia di Anthropic rispetto a una tesi avanzata negli ultimi anni negli Stati Uniti in risposta alla grande controversia tra Google e lo Stato profondo con il Progetto Maven, tema toccato spesso nei miei libri e in quelli di Andrea Venanzoni. È la tesi del nuovo complesso militare industriale, simbolizzata da aziende come Palantir, Anduril e non solo.

È in questa dinamica che possiamo comprendere la controversia aspra e più recente tra il Segretario della Guerra, Pete Hegseth, e Dario Amodei.

Anthropic non è un’organizzazione di attivisti pacifisti estranea alle logiche della difesa nazionale. O almeno, non è soltanto questo. Ha un contratto da circa 200 milioni di dollari con il Dipartimento della Guerra ed è attualmente – per quanto ne sappiamo apertamente – la principale azienda produttrice di modelli di frontiera che ha fornito la propria tecnologia (come il modello Claude) per le reti digitali classificate e segrete di Washington, contribuendo con servizi di simulazioni, pianificazione operativa e operazioni cyber offensive. Questo ruolo è stato rivendicato nel raid che ha portato alla cattura di Maduro.

Tuttavia, il Pentagono sta spingendo per una rinegoziazione contrattuale estrema: vuole poter impiegare l’intelligenza artificiale per “qualsiasi uso legale”, senza venire a patti con le regole interne aziendali. Oltre agli aspetti prettamente politici (Amodei mantiene una distanza dal trumpismo rispetto ai leader tecnologici che hanno indossato apertamente gli abiti trumpiani), c’è un vincolo decisionale. Per le alte sfere militari, è inaccettabile che i contractor privati dettino le regole d’ingaggio.

Dentro questa contrattazione, Anthropic ha allentato le sue restrizioni iniziali, ma non è tornata indietro sull’uso dei suoi modelli per la sorveglianza interna di massa e il loro impiego in sistemi d’arma completamente autonomi, anche per una ragione tecnica sulle incertezze che caratterizzano tuttora i suoi prodotti e il loro sviluppo.

Il Pentagono ha minacciato Anthropic non solo di cancellare il contratto, ma di etichettare l’azienda come supply chain risk, per isolarla nel panorama commerciale statunitense. O di invocare il Defense Production Act del 1950, per forzarne le attività ai sensi delle esigenze della difesa e sicurezza nazionale. Nel 2024, alla fine del mio libro Geopolitica dell’intelligenza artificiale, avevo immaginato l’uso del Defense Production Act da parte del governo statunitense, per rispondere a eventuali rischi di sicurezza dello sviluppo dell’intelligenza artificiale.

Il 26 febbraio Amodei ha voluto ribadire il patriottismo dell’azienda, sottolineando la sua posizione anti-cinese e identificando un paradosso per cui Claude sarebbe un eventuale rischio per la sicurezza anche se essenziale, in parallelo, per la sicurezza nazionale. Questo, però, è il paradosso della sicurezza nazionale, che non è una questione di possibilità tecniche, ma piuttosto la domanda su chi comanda su tali possibilità.

Sapendo che Anthropic stava resistendo, il Pentagono ha avviato negoziati paralleli con OpenAI e Google, cercando di metterli gli uni contro gli altri agitando lo spauracchio di perdere i contratti a favore dei rivali. Ma nella Silicon Valley, nonostante sia avanzata la nuova tesi del complesso militare industriale, la cultura che ha portato alla controversia sul Progetto Maven non è sparita. Infatti, alcuni lavoratori di Google e OpenAI (alcune centinaia) hanno già firmato una lettera aperta intitolata “We Will Not Be Divided”. Nella petizione, i dipendenti invitano apertamente i propri leader a rifiutare le pressioni del Pentagono e a fare blocco comune con Anthropic contro l’uso dell’intelligenza artificiale per esigenze di sicurezza nazionale considerate problematiche.

Per questo, il caso Anthropic, ancora in evoluzione, è un segnale molto significativo: mette una volta di più in luce i paradossi dei legami tra tecnologia, sviluppo commerciale, sicurezza nazionale, che continueranno ad accompagnarci nell’epoca dell’intelligenza artificiale.

Torna su