Skip to content

intelligenza artificiale

Ecco perché abbiamo già perso il controllo dell’IA. Report Guardian

Uno studio rivela che la maggior parte dei chatbot basati sull'intelligenza artificiale può essere facilmente ingannata e indotta a fornire risposte molto pericolose. L'articolo del Guardian

 

I chatbot basati sull’intelligenza artificiale hackerati minacciano di rendere facilmente accessibili conoscenze pericolose, diffondendo informazioni illecite assorbite dai programmi durante la fase di addestramento, affermano i ricercatori.

L’allarme – scrive il Guardian – arriva in un momento in cui si registra una tendenza preoccupante che vede i chatbot “sbloccati” per aggirare i controlli di sicurezza integrati. Le restrizioni hanno lo scopo di impedire ai programmi di fornire risposte dannose, di parte o inappropriate alle domande degli utenti.

USARE (MALE) I CHATBOT È MOLTO FACILE

I motori dietro a chatbot come ChatGPT, Gemini e Claude – grandi modelli linguistici (LLM) – sono alimentati da enormi quantità di materiale proveniente da Internet.

Nonostante gli sforzi per eliminare i testi dannosi dai dati di addestramento, gli LLM possono comunque assorbire informazioni su attività illegali come l’hacking, il riciclaggio di denaro, l’insider trading e la fabbricazione di bombe. I controlli di sicurezza sono progettati per impedire loro di utilizzare tali informazioni nelle loro risposte.

In un rapporto sulla minaccia, i ricercatori concludono che è facile ingannare la maggior parte dei chatbot basati sull’intelligenza artificiale e indurli a generare informazioni dannose e illegali, dimostrando che il rischio è “immediato, tangibile e profondamente preoccupante”. […]

MODELLI “PRIVI DI BARRIERE ETICHE”

La ricerca, condotta dal professor Lior Rokach e dal dottor Michael Fire della Ben Gurion University of the Negev in Israele, ha identificato una crescente minaccia proveniente dai “dark LLM”, modelli di IA deliberatamente progettati senza controlli di sicurezza o modificati tramite jailbreak. Alcuni sono pubblicizzati apertamente online come privi di “barriere etiche” e disponibili ad assistere in attività illegali come la criminalità informatica e la frode.

Il jailbreak tende a utilizzare prompt accuratamente studiati per indurre i chatbot a generare risposte che normalmente sarebbero proibite. Funzionano sfruttando la tensione tra l’obiettivo primario del programma, che è quello di seguire le istruzioni dell’utente, e il suo obiettivo secondario, che è quello di evitare di generare risposte dannose, di parte, non etiche o illegali. I prompt tendono a creare scenari in cui il programma dà la priorità all’utilità rispetto ai suoi vincoli di sicurezza.

Per dimostrare il problema, i ricercatori hanno sviluppato un jailbreak universale che ha compromesso diversi chatbot leader, consentendo loro di rispondere a domande che normalmente dovrebbero essere rifiutate. Una volta compromessi, gli LLM hanno generato risposte coerenti a quasi tutte le domande, afferma il rapporto. […]

ALLE AZIENDE TECH NON INTERESSA

“Ciò che distingue questa minaccia dai precedenti rischi tecnologici è la sua combinazione senza precedenti di accessibilità, scalabilità e adattabilità”, ha aggiunto Rokach.

I ricercatori hanno contattato i principali fornitori di LLM per avvisarli del jailbreak universale, ma hanno affermato che la risposta è stata “deludente”. Diverse aziende non hanno risposto, mentre altre hanno affermato che gli attacchi di jailbreak non rientrano nell’ambito dei programmi di ricompensa, che premiano gli hacker etici per aver segnalato vulnerabilità del software.

Il rapporto afferma che le aziende tecnologiche dovrebbero esaminare più attentamente i dati di addestramento, aggiungere firewall robusti per bloccare le query e le risposte rischiose e sviluppare tecniche di “machine unlearning”, in modo che i chatbot possano ‘dimenticare’ qualsiasi informazione illecita che assorbono. I Dark LLM dovrebbero essere considerati “gravi rischi per la sicurezza”, paragonabili alle armi e agli esplosivi senza licenza, con i fornitori ritenuti responsabili, aggiunge. […]

SERVONO TEST PIÙ RIGOROSI

Il professor Peter Garraghan, esperto di sicurezza AI presso la Lancaster University, ha dichiarato: “Le organizzazioni devono trattare gli LLM come qualsiasi altro componente software critico, che richiede rigorosi test di sicurezza, red teaming continuo e modellizzazione contestuale delle minacce.

”Sì, i jailbreak sono una preoccupazione, ma senza comprendere l’intero stack AI, la responsabilità rimarrà superficiale. La sicurezza reale richiede non solo una divulgazione responsabile, ma anche pratiche di progettazione e implementazione responsabili”, ha aggiunto.

OpenAI, l’azienda che ha creato ChatGPT, ha affermato che il suo ultimo modello o1 è in grado di ragionare sulle politiche di sicurezza dell’azienda, migliorando la sua resilienza ai jailbreak. L’azienda ha aggiunto che è sempre alla ricerca di modi per rendere i programmi più robusti.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Torna su