La giudice distrettuale Rita Lin, nominata dall’ex-presidente degli Stati Uniti Joe Biden, ha bloccato temporaneamente la “messa al bando” di Anthropic da parte del dipartimento della Difesa, che ha classificato l’azienda come un “rischio per la filiera” dopo il rifiuto di quest’ultima a rimuovere le limitazioni all’uso dei suoi sistemi di intelligenza artificiale.
L’ANTEFATTO
Nota principalmente per il chatbot Claude e finanziata da Google e da Amazon, Anthropic è stata fondata nel 2021 in California da un gruppo di ex-dipendenti di OpenAi, tra cui i fratelli Dario Amodei (l’amministratore delegato) e Daniela Amodei (la presidente). Per cercare di distinguersi dalla concorrenza, la startup ha puntato sull’attenzione alla tutela dei dati degli utenti e sullo sviluppo di sistemi di intelligenza artificiale “etici”, cioè non nocivi per la collettività.
Da circa un mese negli Stati Uniti è in corso uno scontro politico e legale tra Anthropic e il dipartimento della Difesa (anche noto come Pentagono) relativamente all’uso delle tecnologie della startup per finalità militari. Il governo americano, cioè, vorrebbe disporre del modello linguistico Claude senza limitazioni; Anthropic, però, si oppone all’utilizzo per scopi di sorveglianza di massa o per azioni militari letali compiute con armi autonome.
A seguito del rifiuto di Anthropic di rimuovere i vincoli operativi, il Pentagono l’ha classificata come “rischio per la filiera”, una designazione che si applica ai soggetti che rischiano di esporre i sistemi militari a infiltrazioni o sabotaggi da parte dei nemici, e che avrebbe l’effetto di escludere Anthropic dai contratti pubblici, oltre a infliggerle un grave danno economico e reputazionale. È stata la prima volta che il governo degli Stati Uniti ha classificato un’azienda americana come supply chain risk.
In risposta, Anthropic ha fatto causa al governo americano, accusandolo di violare il diritto costituzionale alla libertà di espressione e sostenendo che il provvedimento del Pentagono sia una ritorsione per la sua posizione etica.
LA DECISIONE DELLA GIUDICE LIN
Secondo la giudice Lin, Anthropic ha ragione: la sentenza avrà effetto tra sette giorni, però, in modo che l’amministrazione di Donald Trump abbia tempo per presentare ricorso.
Nella sentenza, Lin afferma infatti che le azioni dell’amministrazione Trump non sembrano motivate dalla tutela della sicurezza nazionale, come dichiarato, bensì dalla volontà di punire Anthropic. “Gli atti”, ha scritto la giudice, “supportano l’ipotesi che Anthropic stia venendo punita per aver criticato sulla stampa la posizione del governo sugli appalti. Punire Anthropic […] costituisce una classica ritorsione illegale ai sensi del Primo emendamento” della costituzione.
La posizione del governo, invece, è che la designazione di supply chain risk deriva dal rifiuto di Anthropic di accettare le condizioni contrattuali.
COSA HA DETTO ANTHROPIC
Anthropic, per bocca della portavoce Danielle Cohen, si è detta soddisfatta della decisione della giudice, pur sottolineando che il suo obiettivo rimane “lavorare in modo costruttivo con il governo per garantire che tutti gli americani possano beneficiare di un’intelligenza artificiale sicura e affidabile”.
IL COMMENTO DI ARESU
“Anthropic ottiene una prima importante vittoria giuridica contro il Pentagono. L’uso e abuso di poteri di ‘sicurezza nazionale’ da parte del governo continua ad avere vincoli e limiti, nel sistema giudiziario statunitense”, ha scritto su X Alessandro Aresu, analista e autore di Geopolitica dell’intelligenza artificiale.







