“Troppo potente per essere rilasciato al pubblico”, ma già impiegato da oltre 40 aziende per testare e rafforzare la sicurezza dei software critici. È Claude Mythos Preview, il nuovo modello di intelligenza artificiale di Anthropic, che ha identificato migliaia di vulnerabilità in sistemi diffusi, comprese falle in tutti i principali sistemi operativi e browser, sollevando l’allarme su una nuova era di minacce legate all’IA.
STRATEGIA E PARTNER DEL CONSORZIO GLASSWING
Per contenere i rischi, Anthropic ha deciso di non rendere pubblica la tecnologia e di collaborare con un consorzio di aziende noto come Project Glasswing. Tra i partner figurano Apple, Amazon, Microsoft, Google, Cisco e Broadcom, oltre alla Linux Foundation, impegnata nel software open-source.
Anthropic ha stanziato fino a 100 milioni di dollari in crediti di utilizzo di Claude per il progetto, consentendo ai partecipanti di condividere i risultati ottenuti con Mythos e di rafforzare infrastrutture critiche e software open-source.
CAPACITÀ E RISULTATI DEL MODELLO
Come spiega il New York Times, Claude Mythos Preview non è stato addestrato specificamente per la cybersicurezza, ma le sue capacità avanzate di programmazione e ragionamento gli consentono di individuare vulnerabilità precedentemente difficili da rilevare anche dagli esperti umani.
Secondo Logan Graham, responsabile del team di Anthropic che testa i modelli per capacità pericolose, “il modello individua vulnerabilità comprensibili agli esperti di sicurezza, ma ha anche scoperto falle e creato exploit talmente sofisticati da essere sfuggiti per decenni sia ai ricercatori sia a tutti gli strumenti automatici”. Tra le vulnerabilità più significative, afferma Anthropic, figurano un bug di 27 anni in OpenBSD e un difetto in un software video testato cinque milioni di volte senza che fosse mai individuato.
UN’ALLERTA GLOBALE SULLA SICUREZZA
Per Jared Kaplan, Chief Science Officer di Anthropic, “l’obiettivo è sia sensibilizzare sia dare ai soggetti responsabili un vantaggio nel processo di protezione delle infrastrutture e del codice, sia open-source sia privato”. Il nome del progetto, Glasswing, richiama la farfalla di vetro, con le ali trasparenti che si mimetizzano, metafora delle vulnerabilità software nascoste nei sistemi complessi ma presenti da anni. L’iniziativa evidenzia come i modelli di IA stiano rapidamente trasformando la capacità di individuare e correggere falle, creando sia opportunità difensive sia rischi per infrastrutture e dati sensibili.
COSA DICONO GLI ADDETTI AI LAVORI
Secondo Elia Zaitsev, Cto di CrowdStrike, aziende di sicurezza informatica, “ciò che prima richiedeva mesi ora accade in pochi minuti grazie all’IA”, e Claude Mythos Preview mostra come i difensori possano agire su larga scala, pur segnalando che gli avversari cercheranno inevitabilmente di sfruttare le stesse capacità.
Mike Krieger di Anthropic ha aggiunto che il modello viene utilizzato come strumento difensivo, “quasi come armarli in anticipo”, permettendo alla comunità open-source e agli specialisti di cybersicurezza di intervenire prima che le vulnerabilità possano essere sfruttate.
IL BACKGROUND DI ANTHROPIC
Anthropic, fondata nel 2021 da ex dirigenti di OpenAI, ha guadagnato attenzione globale per il bilanciamento tra sviluppo di sistemi IA avanzati e gestione dei rischi. L’azienda, secondo quanto riportato dal Nyt, ha dichiarato che il fatturato annuo previsto per il 2026 supera i 30 miliardi di dollari, più del triplo rispetto ai 9 miliardi precedenti, grazie alla popolarità di Claude come strumento per la programmazione. La società ha già avuto scontri con il Pentagono, che la considera a rischio nella supply chain, e le discussioni sono tuttora in corso, con alcune restrizioni sospese da un giudice federale.







