skip to Main Content

Red Team Chatgpt

I lati oscuri di ChatGpt secondo OpenAi

Scoprire fino a dove può spingersi ChatGpt è un lavoro e OpenAI, la software house che lo ha realizzato, ha messo insieme un “red team” composto da professionisti di diversi settori per testare le capacità del chatbot. Quello che hanno scoperto però è tutt’altro che confortante…

 

Prendi alcuni accademici, insegnanti, avvocati, analisti del rischio e ricercatori di sicurezza, per lo più con sede negli Stati Uniti e in Europa e fagli mettere alla prova ChatGpt per vedere cosa è in grado di fare. È quanto OpenAI ha chiesto di fare a un cosiddetto “red team”.

COS’È UN RED TEAM

In ambito di sicurezza informatica il red team è un gruppo indipendente chiamato a eseguire attacchi informatici simulati contro l’azienda committente per studiarne le debolezze, al fine di migliorarne l’efficacia.

IL RED TEAM DI CHATGPT

Anche OpenAI, prima di rilasciare l’ultima versione di ChatGpt (GPT-4) ha ovviamente selezionato un red team con l’obiettivo di correggere e apportare modifiche per prevenire potenziali rischi soprattutto se il chatbot, una volta disponibile a tutti, dovesse finire nelle mani sbagliate.

Il red team ha quindi dovuto rivolgere le richieste più varie, strampalate o pericolose al sistema di intelligenza artificiale (IA) e segnalare le sue risposte alla software house, la quale ne ha tenuto conto prima di renderlo fruibile anche ai non addetti ai lavori.

Gli esperti, intervistati dal Financial Times, hanno trascorso dalle 10 alle 40 ore ciascuno per testare il modello nel corso di alcuni mesi e la maggior parte di loro ha riferito di essere stata pagata circa 100 dollari all’ora per il lavoro svolto.

GLI AMBITI IN CUI CHATGPT È STATO MESSO ALLA PROVA

OpenAI ha voluto verificare la presenza nel modello di problemi quali la tossicità, i pregiudizi e le distorsioni linguistiche ma anche il suo potenziale di favoreggiamento del plagio, di attività illegali come i crimini finanziari e gli attacchi informatici, nonché il modo in cui potrebbe compromettere la sicurezza nazionale e le comunicazioni sul campo di battaglia.

Per esempio, su impulso di un ingegnere chimico, ChatGpt è riuscito a suggerire un agente nervino completamente nuovo anche grazie a dei plug-in (ovvero dei componenti di un software che aggiungono funzionalità a un programma esistente) forniti da uno degli ingegneri chimici, che hanno alimentato il modello con nuove fonti di informazioni, come documenti scientifici e un elenco di produttori di sostanze chimiche. Alla fine, il chatbot ha trovato anche un luogo dove produrlo.

COSA NE PENSANO GLI ESPERTI

Per quanto alcuni vantaggi siano innegabili, i rischi e le potenzialità di ChatGpt non sono da sottovalutare. “Penso che fornirà a tutti uno strumento per fare chimica in modo più rapido e accurato. Ma c’è anche il rischio significativo che le persone… si esercitino con una chimica pericolosa”, ha detto l’ingegnere.

“Oggi il sistema è congelato, il che significa che non impara più, né ha memoria. Ma cosa succede se gli diamo accesso a Internet? Potrebbe essere un sistema molto potente collegato al mondo”, ha detto un altro esperto del red team.

OpenAI, dal canto suo, ha dichiarato di prendere sul serio la sicurezza, di aver testato i plug-in prima del lancio e di voler aggiornare regolarmente il GPT-4 man mano che un numero maggiore di persone lo utilizza.

Tuttavia, una ricercatrice di tecnologia e diritti umani del red team ha detto che il modello mostrava “evidenti stereotipi sulle comunità emarginate anche nelle sue versioni successive”.

E un avvocato di Nairobi, unico tester africano, ha rilevato un tono discriminatorio da parte del chatbot tanto che OpenAI ha riconosciuto che GPT-4 può ancora presentare delle distorsioni.

E I RIVALI DI CHATGPT COME SI STANNO MUOVENDO?

Anche il red team di Google sta affrontando simili sfide con Bard. In particolare, si sta concentrando sul jailbreak – ovvero quella procedura informatica che va a modificare i sistemi di accesso al sistema operativo dei dispositivi Apple, basati su iOS, al fine di installare applicazioni non ufficiale e non presenti nell’Apple Store – e la prompt injection, una tecnica in cui una terza parte altera un sito web aggiungendo un testo nascosto che ha lo scopo di modificare il comportamento delle applicazioni.

Ma il lavoro dei red team per alcuni esperti potrebbe non essere sufficiente a contenere i danni perché, come ha detto al Ft una delle persone intervistate, “il motivo per cui si eseguono i test operativi è che le cose si comportano in modo diverso una volta che vengono utilizzate nell’ambiente reale”.

Back To Top