Skip to content

mythos

Aggiungi Startmag.it

alle tue fonti preferite su Google

Tutto sull’ultima mossa del Pentagono contro Anthropic

Il Pentagono ha designato Anthropic come un rischio per la sicurezza nazionale americana nella catena di approvvigionamento. La decisione senza precedenti – che l'azienda è pronta a contestare in tribunale – potrebbe avere conseguenze immediate sull’utilizzo del modello AI Claude da parte degli appaltatori federali.

Stop all”intelligenza artificiale “safety-first” di Anthropic nella catena di approvvigionamento degli Stati Uniti.

Il 4 marzo il Dipartimento della Difesa americano ha ufficialmente bollato la società di intelligenza artificiale guidata da Dario Amodei come rischio per la sicurezza nazionale americana nella supply chain.

L’etichetta di “rischio per la catena di approvvigionamento”, confermata in una dichiarazione dalla società stessa, ha effetto immediato e impedisce ai contractor governativi di utilizzare la tecnologia di Anthropic nelle loro attività per l’esercito statunitense.

In questo modo Washington punta a limitare l’uso di una tecnologia che, secondo i recenti rapporti, le forze armate americane avrebbero utilizzato nelle operazioni militari prima in Venezuela e poi in Iran.

La misura arriva dopo lo scontro tra l’amministrazione Trump e il ceo dell’azienda, Dario Amodei. Quest’ultimo ha già fatto sapere di ritenere la decisione del Pentagono “non giuridicamente valida” pertanto Anthropic è pronta a “contestarla in tribunale”.

Tutti i dettagli.

LA DECISIONE DEL PENTAGONO

Il Pentagono ha comunicato giovedì di aver “ufficialmente informato la dirigenza di Anthropic che l’azienda e i suoi prodotti sono considerati un rischio per la catena di approvvigionamento, con effetto immediato”. La designazione rappresenta un passaggio formale che potrebbe costringere le aziende che lavorano con il governo federale a interrompere l’utilizzo dei prodotti sviluppati dalla società.

Secondo quanto riferito dalle autorità della difesa, la decisione riflette un principio operativo fondamentale. Nella nota del Dipartimento della Difesa si legge infatti che “si è trattato di un principio fondamentale: l’esercito deve poter utilizzare la tecnologia per tutti gli scopi legittimi. L’esercito non permetterà a un fornitore di inserirsi nella catena di comando limitando l’uso lecito di una capacità critica e mettendo a rischio i nostri combattenti”.

DOPO IL BRACCIO DI FERRO TRA L’AMMINISTRAZIONE TRUMP E ANTHROPIC

La decisione arriva quasi una settimana dopo le accuse rivolte pubblicamente all’azienda dal presidente Donald Trump e dal segretario alla Difesa Pete Hegseth. Alla vigilia dell’escalation militare con l’Iran, i due esponenti dell’amministrazione avevano annunciato possibili misure punitive nei confronti della società.

Lo scontro è nato dopo che l’amministratore delegato di Anthropic, Dario Amodei,  ha stabilito con fermezza che l’intelligenza artificiale di Anthropic non verrà utilizzata per la sorveglianza di massa degli americani o per armi completamente autonome, ma il Pentagono ritiene che debba avere accesso illimitato per “tutti gli scopi legittimi”.

LA POSIZIONE DI DARIO AMODEI

Tuttavia, le aziende possono comunque utilizzare Claude di Anthropic in altri progetti non correlati al Pentagono, ha scritto l’amministratore delegato Dario Amodei nella dichiarazione. Ha affermato che la designazione ha “una portata limitata” e che le restrizioni si applicano solo all’utilizzo dell’intelligenza artificiale di Anthropic nei contratti con il Pentagono.

LE REAZIONI DEGLI APPALTATORI DELLA DIFESA

La designazione ha già iniziato a produrre effetti nel settore della difesa. Alcuni contractor militari stavano infatti interrompendo i rapporti con Anthropic anche prima dell’annuncio ufficiale.

Tra questi, Lockheed Martin ha dichiarato che “seguirà le indicazioni del Presidente e del Dipartimento della Guerra” e che si rivolgerà ad altri fornitori di modelli linguistici di grandi dimensioni. L’azienda ha inoltre precisato che “prevediamo impatti minimi poiché Lockheed Martin non dipende da alcun singolo fornitore di LLM per nessuna parte del nostro lavoro”.

In precedenza, la stessa società aveva minacciato un’azione legale nel caso in cui il Pentagono avesse proceduto con una designazione definita “legalmente infondata” e “mai applicata pubblicamente a un’azienda americana”.

Non è ancora chiaro se la misura sia destinata a bloccare l’uso delle tecnologie Anthropic da parte di tutti gli appaltatori federali o soltanto di quelli che collaborano direttamente con il Dipartimento della Difesa.

LE PREOCCUPAZIONI DEGLI EX FUNZIONARI DELLA SICUREZZA NAZIONALE

La decisione del Pentagono ha sollevato critiche anche sul piano politico e istituzionale.

Prima dell’annuncio ufficiale, un gruppo di ex funzionari della difesa e della sicurezza nazionale aveva già inviato una lettera ai legislatori statunitensi per esprimere “seria preoccupazione” riguardo alla possibile designazione.

Tra i firmatari figurano l’ex direttore della CIA Michael Hayden e dirigenti in pensione dell’Aeronautica, dell’Esercito e della Marina. Nel documento si afferma che “l’uso di questa autorità contro un’azienda americana nazionale rappresenta un profondo allontanamento dal suo scopo originario e crea un precedente pericoloso”.

Gli stessi firmatari sottolineano che lo strumento normativo è stato concepito per “proteggere gli Stati Uniti dall’infiltrazione di avversari stranieri – da aziende legate a Pechino o Mosca, non da innovatori americani che operano in modo trasparente secondo lo stato di diritto”. Nella lettera si aggiunge inoltre che “applicare questo strumento per penalizzare un’azienda statunitense che si rifiuta di rimuovere le garanzie contro la sorveglianza interna di massa e le armi completamente autonome è un errore di categoria con conseguenze che vanno ben oltre questa controversia”.

IMPATTI SUL MERCATO DELL’INTELLIGENZA ARTIFICIALE

Nonostante la perdita di alcune partnership nel settore della difesa, l’azienda ha registrato un aumento significativo dell’interesse da parte degli utenti. Nella settimana dello scontro con il Pentagono, Anthropic ha segnalato un forte incremento dei download del chatbot Claude.

Secondo i dati diffusi dalla società, l’applicazione ha superato il milione di nuovi utenti giornalieri e ha raggiunto il primo posto tra le applicazioni di intelligenza artificiale in oltre venti paesi sull’App Store di Apple, superando ChatGPT di OpenAI e Gemini di Google.

La controversia ha inoltre intensificato la competizione tra Anthropic e OpenAI. Venerdì, OpenAI ha annunciato un accordo con il Pentagono che, secondo le informazioni disponibili, potrebbe sostituire di fatto Anthropic come fornitore di tecnologie di intelligenza artificiale per alcune attività del Dipartimento della Difesa.

Torna su