Skip to content

mythos

Aggiungi Startmag.it

alle tue fonti preferite su Google

Come procede il braccio di ferro tra Anthropic e Pentagono

Una corte d’appello di Washington ha respinto il ricorso di Anthropic per sospendere la decisione del Pentagono di classificarla come a rischio per la supply chain, segnando una parziale vittoria per l’amministrazione Trump dopo le obiezioni della società di IA sull’uso della sua tecnologia per sorveglianza di massa o armi autonome.

Uno a zero per il Pentagono nella battaglia legale contro Anthropic.

Ieri la Corte d’Appello di Washington ha respinto la richiesta della startup di intelligenza artificiale sviluppatrice del modello Claude di sospendere l’etichetta di rischio della catena di approvvigionamento applicata dal Pentagono.

Claude – lo strumento di intelligenza artificiale di Anthropic fulcro della faida tra la società e il Pentagono – è stato anche al centro della campagna statunitense in Venezuela e in Iran, dimostrazione del fatto che sia diventato profondamente radicato nell’impegno del Difesa Usa per integrare l’intelligenza artificiale nelle operazioni militari.

Come ricorda Reuters, la causa è una delle due intentate da Anthropic contro la mossa senza precedenti del segretario alla Difesa Usa Pete Hegseth, avvenuta dopo che Anthropic si era rifiutata di autorizzare l’uso del chatbot basato sull’intelligenza artificiale Claude per la sorveglianza statunitense o per le armi autonome, a causa di preoccupazioni relative alla sicurezza e all’etica.

La startup di intelligenza artificiale ha chiesto infatti la sospensione del provvedimento presso la Corte d’Appello di Washington e ha anche citato in giudizio il Dipartimento della Guerra (già Dipartimento della Difesa ndr) presso un tribunale federale della California settentrionale.

Da una parte c’è Anthropic che sostiene come l’inserimento nella lista nera sia una ritorsione per le sue posizioni sulla sicurezza dell’Intelligenza artificiale. Tale etichetta, che impedisce alla società di ottenere contratti federali, è solitamente riservata alle organizzazioni provenienti da paesi stranieri ostili, sottolinea Afp. Dall’altra il Dipartimento della Difesa che all’inizio di marzo ha ufficialmente designato Anthropic come rischio per la catena di approvvigionamento, affermando che l’azienda minacciava la sicurezza nazionale.

Tutti i dettagli.

COSA HA STABILITO UN TRIBUNALE DI WASHINGTON

Mercoledì, una Corte d’Appello federale di Washington D.C. ha rifiutato di bloccare, per ora, l’inserimento nella lista nera per motivi di sicurezza nazionale della società Anthropic da parte del Pentagono.

Il collegio d’appello ha affermato nella sua sentenza che obbligare il Dipartimento della Guerra a prolungare l’utilizzo dell’intelligenza artificiale di Anthropic, direttamente o tramite appaltatori, “ci sembra un’ingerenza giudiziaria sostanziale nelle operazioni militari”.

Tuttavia, la Corte d’Appello ha riconosciuto che Anthropic ha sollevato “sfide sostanziali” in merito alle sanzioni e ha ordinato che il procedimento nel caso principale venga accelerato.

UN PRIMO SUCCESSO PER L’AMMINISTRAZIONE TRUMP

Si tratta di una vittoria per l’amministrazione Trump, che arriva dopo che un’altra Corte d’Appello era giunta alla conclusione opposta in un ricorso legale separato presentato da Anthropic, segnala ancora Reuters.

IL BRACCIO DI FERRO TRA LA STARTUP AI E IL PENTAGONO

Anthropic, sviluppatrice del popolare assistente virtuale Claude, sostiene che il Segretario alla Difesa Pete Hegseth abbia oltrepassato i suoi poteri quando ha designato l’azienda come “rischio per la catena di approvvigionamento della sicurezza nazionale” a causa del suo rifiuto di rimuovere alcune limitazioni d’uso dai suoi prodotti. Questa etichetta impedisce ad Anthropic di ottenere contratti con il Pentagono e potrebbe innescare un inserimento nella lista nera a livello governativo.

I dirigenti di Anthropic hanno affermato che la designazione potrebbe costare all’azienda miliardi di dollari in termini di mancati guadagni e danni alla reputazione.

LA POSIZIONE DI ANTHROPIC

“Siamo grati che il tribunale abbia riconosciuto la necessità di risolvere rapidamente queste questioni e restiamo fiduciosi che i tribunali alla fine concorderanno sul fatto che queste designazioni della catena di approvvigionamento fossero illegittime”, ha dichiarato un portavoce di Anthropic all’Afp.

“Sebbene questo caso fosse necessario per proteggere Anthropic, i nostri clienti e i nostri partner, il nostro obiettivo rimane quello di collaborare proficuamente con il governo per garantire che tutti gli americani possano beneficiare di un’intelligenza artificiale sicura e affidabile” ha concluso il portavoce della società guidata da Dario Amodei.

LA CAUSA IN CALIFORNIA

Il numero uno del Pentagono Hegseth ha emesso degli ordini che designano Anthropic in base a due diverse leggi, e Anthropic le sta contestando separatamente.

Il caso della California riguarda una norma più specifica che esclude Anthropic dai contratti del Pentagono relativi ai sistemi informativi militari.

Lo scorso 26 marzo un giudice federale della California ha bloccato uno degli ordini, affermando che il Pentagono sembrava aver esercitato ritorsioni illegali contro Anthropic per le sue posizioni sulla sicurezza dell’IA.

Il giudice distrettuale Rita Lin ha stabilito che il governo non può applicare immediatamente la designazione di Anthropic come “rischio per la catena di approvvigionamento” della sicurezza nazionale. Secondo il giudice, le azioni dell’amministrazione potrebbero essere state finalizzate a punire l’azienda per la sua posizione pubblica sulla sicurezza dell’IA, piuttosto che a rispondere a reali preoccupazioni di sicurezza nazionale.

Nella sua sentenza, ha affermato che la designazione di Anthropic come azienda a rischio per la catena di approvvigionamento da parte del governo era “probabilmente sia contraria alla legge, sia arbitraria e capricciosa”.

LA RINCORSA DELLA SOCIETÀ DIETRO CLAUDE AI

Nel frattempo, la controversia legale con il governo americano non sembra rallentare la crescita Anthropic.

A inizio settimana la società annunciato un nuovo accordo con il produttore di microchip Broadcom che si basa sull’impegno di Anthropic a investire 50 miliardi di dollari per rafforzare l’infrastruttura informatica statunitense.

“Questa partnership innovativa con Google e Broadcom rappresenta la continuazione del nostro approccio rigoroso alla scalabilità delle infrastrutture: stiamo costruendo la capacità necessaria per gestire la crescita esponenziale che abbiamo osservato nella nostra base clienti, consentendo al contempo a Claude di definire la frontiera dello sviluppo dell’IA”, ha dichiarato Krishna Rao, direttore finanziario di Anthropic, in un post sul blog. La maggior parte della nuova infrastruttura sarà situata negli Stati Uniti, ha affermato Anthropic.

D’altronde la domanda per il suo modello di IA Claude è aumentata nel 2026, con oltre 1.000 clienti aziendali che spendono più di 1 milione di dollari all’anno. Questa cifra è più che raddoppiata da febbraio. Come dimostrato dall’incremento del fatturato annuo di Anthropic che ha superato i 30 miliardi di dollari, rispetto ai circa 9 miliardi di dollari di fine anno scorso e superando la rivale OpenAI, sviluppatrice di ChatGpt.

 

Torna su