Skip to content

anthropic

Aggiungi Startmag.it

alle tue fonti preferite su Google

Un errore umano lascia Claude di Anthropic in mutande?

Brutto inciampo per Claude, l'AI su cui si stanno riversando in massa molti utenti delusi dall'approccio filo-governativo dimostrato dal rivale OpenAi: una disattenzione espone infatti il codice sorgente che finisce così in balia delle software house rivali come pure degli hacker. E non è la prima fuga di notizie che ha colpito Anthropic dopo il "gran rifiuto" al Pentagono...

Se l’Intelligenza artificiale spesso sbaglia – lo sappiamo tutti – anche quella umana ha i suoi limiti imbarazzanti (salvo non si voglia ricercare qualcos’altro di più complesso e meno consapevole, di natura freudiana) e così è capitato che assieme alla versione 2.1.88 del software Claude, intelligenza artificiale di punta di Anthropic, l’azienda abbia distribuito anche la mappa sorgente, quasi 2mila file TypeScript e più di mezzo milione di righe di codice: un vero e proprio bottino prelibato che gli smanettoni (ma i meno abili possono a tal fine sfruttare altre AI) potrebbero utilizzare per ricostruire l’intero codice sorgente di Claude Code.

UN LEAK INVOLONTARIO

Per qualche ora s’è parlato persino di attacco hacker, dal momento che per l’azienda si tratta di un autogol di dimensioni importanti che consentirà un po’ a tutti, tanto alle rivali quanto a possibili malintenzionati, di spulciare tra le pieghe di un algoritmo intelligente che sta raccogliendo miliardi su miliardi in round di finanziamento. Qualche ora dopo il tam-tam in Rete è stata la stessa software house dei fratelli Amodei, vera e propria antagonista di ChatGpt di OpenAi dopo tutto il trambusto col Pentagono, a intervenire e delimitare il perimetro dell’accaduto.

“Questo rilascio – si legge nella nota ufficiale indirizzata a VentureBeat.com – è stato causato da un errore umano, non è una violazione della sicurezza. Stiamo implementando diverse contromisure – viene spiegato – per evitare che succeda di nuovo”. Nessun attacco doloso insomma, ma una clamorosa e forse anche più imbarazzante disattenzione umana.

TROPPI INCIDENTI ATTORNO A CLOUDE?

Tuttavia non è il primo incidente di questo tipo che ha riguardato l’impresa dei fratelli Amodei (nella foto Dario): soltanto pochi giorni fa, infatti, la diffusione incontrollata di documenti privati ha permesso al mondo di scoprire in anteprima che Anthropic starebbe lavorando ad un nuovo modello di Intelligenza artificiale denominato internamente Mythos.

Si tratterebbe di un prodotto particolarmente potente e fin qui la fuga di notizie potrebbe costituire una mera operazione di marketing sopra le righe, tuttavia il leak ha permesso anche di venire a conoscenza del fatto che questo nuovo algoritmo presenterebbe ancora importanti problemi in termini di sicurezza. E questo non reclamizza di certo per il meglio la nuova Ai di Anthropic che però almeno al momento sembra avere ben altri problemi di cui occuparsi: gli spifferi, involontari e non solo.

Torna su