Skip to content

openai anthropic

Aggiungi Startmag.it

alle tue fonti preferite su Google

Cosa succede a OpenAI e Anthropic dopo le ultime trumpate

Dopo che Anthropic si è tirata indietro, OpenAI ha firmato un accordo "raffazzonato" (così l'ha definito Sam Altman) con il Pentagono per l'uso dell'intelligenza artificiale in ambito militare. A distanza di tre giorni, in seguito ai timori che ne sono sortiti circa il potenziale uso per la sorveglianza di massa, la società sarebbe intervenuta. Fatti e commenti

 

Col suo rifiuto a un utilizzo senza limiti della propria intelligenza artificiale in ambito militare, Anthropic dei fratelli Amodei ha segnato la fine dei rapporti con l’amministrazione Trump, che l’ha subito rimpiazzato con qualcuno di più accondiscendente: OpenAI. L’azienda guidata da Sam Altman, subito intervenuta per occupare lo spazio lasciato da Anthropic, ha firmato in fretta e furia accordi – definiti già ieri “raffazzonati” – con la Casa Bianca. E ora cerca di mettere una pezza dopo che sono montate le preoccupazioni riguardo all’utilizzo dell’IA come strumento di sorveglianza di massa.

Intanto, l’inserimento della società degli Amodei nella blacklist di Trump fa bene al suo chatbot Claude, che negli ultimi giorni ha scalato le classifiche degli app store di Stati Uniti e Regno Unito.

ANTHROPIC TRA LINEE ROSSE E BANDO FEDERALE

La rottura definitiva tra Anthropic e il Pentagono si è consumata dopo che l’amministratore delegato della società, Dario Amodei, ha confermato le sue “linee rosse” invalicabili: il divieto di utilizzare i propri modelli per la sorveglianza interna di massa o per “armi completamente autonome”, ritenute attualmente non abbastanza affidabili. Amodei ha sostenuto che la sorveglianza di massa violerebbe i “diritti costituzionali”, dichiarandosi disposto a rinunciare a “diverse centinaia di milioni di dollari di ricavi” pur di non sottostare alle richieste governative.

La reazione del presidente Usa Donald Trump non si è fatta attendere, definendo su Truth Social i dirigenti dell’azienda “fanatici di sinistra” che hanno commesso un “ERRORE DISASTROSO cercando di forzare il Pentagono e costringerlo a obbedire ai loro Termini di Servizio invece che alla nostra Costituzione”. Di conseguenza, il dipartimento della Difesa ha etichettato Anthropic come un “rischio per la catena di approvvigionamento”, ordinando a tutte le agenzie federali, inclusi i dipartimenti di Stato, del Tesoro e della Salute, di eliminare gradualmente l’uso dei prodotti della startup entro sei mesi.

IL SUBENTRO DI OPENAI E LE GARANZIE TECNICHE

A poche ore dal fallimento dei negoziati con Anthropic, venerdì OpenAI ha annunciato un accordo per distribuire la propria tecnologia nelle reti classificate del Pentagono. Sennonché ieri Altman ha ammesso che la rapidità dell’intesa “è sembrata opportunistica e raffazzonata”, riconoscendo che “l’impressione generale non è buona”.

Per differenziarsi dalla rivale, OpenAI ha puntato su un “dispiegamento solo cloud” che permetterebbe di mantenere il controllo sulle proprie “linee rosse” attraverso misure tecniche e il coinvolgimento diretto del proprio personale autorizzato nel processo decisionale, piuttosto che affidarsi esclusivamente a clausole contrattuali. Altman ha inoltre espresso maggiore fiducia nelle normative vigenti, affermando che “Anthropic sembrava più concentrata su divieti specifici nel contratto, piuttosto che sul richiamo alle leggi applicabili”.

SORVEGLIANZA DI MASSA E MODIFICHE AL CONTRATTO

La firma dell’accordo, riferisce il Financial Times, ha scatenato forti critiche da parte di esperti, avvocati e degli stessi dipendenti di OpenAI, alcuni dei quali hanno manifestato davanti agli uffici di San Francisco con scritte come “NO ALLA SORVEGLIANZA DI MASSA”. In risposta alle pressioni, Altman ha annunciato modifiche contrattuali per chiarire che il sistema non sarà “intenzionalmente utilizzato per la sorveglianza interna di cittadini o residenti statunitensi”, escludendo per il momento dall’accordo i servizi di intelligence come la National Security Agency.

Le nuove clausole dovrebbero vietare esplicitamente il “tracciamento, la sorveglianza o il monitoraggio deliberato”, compreso l’uso di informazioni personali ottenute commercialmente. Nonostante ciò, stando a Reuters, il dipartimento di Stato ha già iniziato a sostituire il modello alla base del proprio chatbot interno, StateChat di Anthropic, con GPT-4.1 di OpenAI.

L’INASPETTATO SUCCESSO DI CLAUDE TRA GLI UTENTI

Mentre l’amministrazione Trump procedeva con il boicottaggio, Anthropic ha registrato una crescita senza precedenti, con gli utenti attivi gratuiti aumentati di oltre il 60% dall’inizio dell’anno e gli abbonati a pagamento più che raddoppiati. Il suo chatbot Claude ha raggiunto il primo posto tra le app gratuite negli Stati Uniti, superando ChatGPT proprio mentre il Pentagono ufficializzava il passaggio a OpenAI.

Questa migrazione di massa è stata alimentata anche da campagne social come “Cancel ChatGPT” e dall’appoggio di personalità come la cantante Katy Perry, che ha invitato i propri follower a cancellare gli abbonamenti a OpenAI. L’impennata di traffico ha causato temporanei disservizi ai sistemi di Anthropic, che ha segnalato record storici di nuove iscrizioni per ogni singolo giorno della scorsa settimana.

Torna su