Reti collegate a Russia, Cina, Iran e Israele hanno usato gli strumenti OpenAI per diffondere disinformazione.
È quanto ha rivelato la società madre di ChatGpt in un post sul blog. Il 30 maggio OpenAI ha pubblicato il suo primo rapporto in assoluto su come i suoi strumenti di intelligenza artificiale sono utilizzati per operazioni di influenza segrete, rivelando che l’azienda ha interrotto campagne di disinformazione provenienti da Russia, Cina, Israele e Iran.
La società guidata da Sam Altman ha smantellato negli ultimi tre mesi cinque operazioni che cercavano di utilizzare i suoi modelli di intelligenza artificiale per attività ingannevoli. Nessuna delle campagne ha avuto successo o ha raggiunto un vasto pubblico, sottolinea il rapporto. Tuttavia, è il segno che la tecnologia sta diventando un’arma potente nella guerra dell’informazione in un anno di elezioni.
“La pressione sta aumentando sulle aziende di intelligenza artificiale in rapida crescita come OpenAI, poiché i rapidi progressi nella loro tecnologia significano che è più economico e facile che mai per i perpetratori di disinformazione creare deepfake realistici e manipolare i media e quindi diffondere quel contenuto in modo automatizzato” osserva il Financial Times.
Soprattutto in un momento delicato come quello attuale in cui circa 2 miliardi di persone si recheranno alle urne quest’anno.
Tutti i dettagli.
COSA HA SCOPERTO OPENAI
OpenAI ha affermato che i suoi ricercatori hanno trovato e bannato account associati a cinque operazioni di influenza segrete negli ultimi tre mesi, che provenivano da un mix di attori statali e privati.
Gli autori delle minacce hanno tentato di sfruttare i modelli linguistici di OpenAI per attività come la generazione di commenti, articoli e profili social, traduzione di testi.
Come ricorda il Ft, le politiche di OpenAI proibiscono l’uso dei suoi modelli per ingannare o fuorviare gli altri.
Il contenuto si è concentrato su questioni “tra cui l’invasione dell’Ucraina da parte della Russia, il conflitto a Gaza, le elezioni indiane, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, ha affermato OpenAI nel rapporto. La società guidata da Sam Altman ha sottolineato che queste operazioni “non sembrano aver beneficiato di un aumento significativo del coinvolgimento del pubblico” grazie anche ai suoi sistemi di allerta.
COSA HA FATTO LA RETE CINESE
Il rapporto menziona la rete cinese nota come “Spamouflage” ha utilizzato gli strumenti di OpenAI per eseguire il debug del codice, ricercare media e generare post in cinese, inglese, giapponese e coreano.
L’OPERAZIONE RUSSA DOPPELGANGER
Dopodiché, scoperta un’operazione originata dalla Russia conosciuta come Doppelganger che ha usato i modelli di OpenAI per generare commenti in inglese, francese, tedesco, italiano e convertire articoli di notizie in post sui social. OpenAI ha rilevato e interrotto anche un’altra campagna russa precedentemente sconosciuta soprannominata “Bad Grammar” che operava su Telegram. L’operazione ha preso di mira Ucraina, Moldavia, Stati baltici e Stati Uniti. In particolare ha utilizzato modelli OpenAI sia per eseguire il debug del codice per un bot di Telegram sia per creare brevi commenti politici in russo e inglese.
SMANTELLATA L’ATTIVITÀ ISRAELIANA STOIC
Smantellata anche l’attività di una società commerciale in Israele chiamata Stoic. Quest’ultima generava commenti e articoli pubblicati su più piattaforme. Alcuni post accusavano le proteste studentesche statunitensi contro la guerra di Israele a Gaza di essere antisemite.
Gli attori iraniani hanno generato invece articoli completi che attaccavano gli Stati Uniti e Israele, che hanno tradotto in inglese e francese.
LA POSIZIONE DELLA SOCIETÀ GUIDATA DA SAM ALTMAN
“Sebbene tutte queste operazioni abbiano utilizzato l’intelligenza artificiale in una certa misura, nessuna di esse la utilizza in modo esclusivo”, ha affermato Ben Nimmo, investigatore principale del team di intelligence e indagini di OpenAI. Nimmo ha affermato che mentre l’intelligenza artificiale aiuta a creare testo più velocemente e con meno errori linguistici. Ma la parte più difficile delle campagne di influenza straniera rimane quella di farle diffondere nel mainstream. Tutti gli attacchi che ha notato risultano classificati come di bassa gravità. Proprio perché non mostravano segni di diffusione organica da soli.
Secondo Axios, non è chiaro, tuttavia, se OpenAI stia vedendo tutti i modi in cui i suoi strumenti sono utilizzati per aiutare in tali operazioni.