Se l’Intelligenza artificiale spesso sbaglia – lo sappiamo tutti – anche quella umana ha i suoi limiti imbarazzanti (salvo non si voglia ricercare qualcos’altro di più complesso e meno consapevole, di natura freudiana) e così è capitato che assieme alla versione 2.1.88 del software Claude, intelligenza artificiale di punta di Anthropic, l’azienda abbia distribuito anche la mappa sorgente, quasi 2mila file TypeScript e più di mezzo milione di righe di codice: un vero e proprio bottino prelibato che gli smanettoni (ma i meno abili possono a tal fine sfruttare altre AI) potrebbero utilizzare per ricostruire l’intero codice sorgente di Claude Code.
Claude code source code has been leaked via a map file in their npm registry!
Code: https://t.co/jBiMoOzt8G pic.twitter.com/rYo5hbvEj8
— Chaofan Shou (@Fried_rice) March 31, 2026
UN LEAK INVOLONTARIO
Per qualche ora s’è parlato persino di attacco hacker, dal momento che per l’azienda si tratta di un autogol di dimensioni importanti che consentirà un po’ a tutti, tanto alle rivali quanto a possibili malintenzionati, di spulciare tra le pieghe di un algoritmo intelligente che sta raccogliendo miliardi su miliardi in round di finanziamento. Qualche ora dopo il tam-tam in Rete è stata la stessa software house dei fratelli Amodei, vera e propria antagonista di ChatGpt di OpenAi dopo tutto il trambusto col Pentagono, a intervenire e delimitare il perimetro dell’accaduto.
“Questo rilascio – si legge nella nota ufficiale indirizzata a VentureBeat.com – è stato causato da un errore umano, non è una violazione della sicurezza. Stiamo implementando diverse contromisure – viene spiegato – per evitare che succeda di nuovo”. Nessun attacco doloso insomma, ma una clamorosa e forse anche più imbarazzante disattenzione umana.
TROPPI INCIDENTI ATTORNO A CLOUDE?
Tuttavia non è il primo incidente di questo tipo che ha riguardato l’impresa dei fratelli Amodei (nella foto Dario): soltanto pochi giorni fa, infatti, la diffusione incontrollata di documenti privati ha permesso al mondo di scoprire in anteprima che Anthropic starebbe lavorando ad un nuovo modello di Intelligenza artificiale denominato internamente Mythos.
Si tratterebbe di un prodotto particolarmente potente e fin qui la fuga di notizie potrebbe costituire una mera operazione di marketing sopra le righe, tuttavia il leak ha permesso anche di venire a conoscenza del fatto che questo nuovo algoritmo presenterebbe ancora importanti problemi in termini di sicurezza. E questo non reclamizza di certo per il meglio la nuova Ai di Anthropic che però almeno al momento sembra avere ben altri problemi di cui occuparsi: gli spifferi, involontari e non solo.







