L’esplosione della tecnologia dell’intelligenza artificiale rende più facile che mai ingannare le persone su Internet e sta trasformando le elezioni presidenziali statunitensi del 2024 in un test senza precedenti su come controllare i contenuti ingannevoli.
LA FINTA TELEFONATA DI BIDEN
Una prima bordata è stata sparata il mese scorso nel New Hampshire. Giorni prima delle primarie presidenziali dello Stato, si stima che siano state inviate dalle 5.000 alle 25.000 telefonate che invitavano i destinatari a non disturbarsi a votare.
“Il vostro voto farà la differenza a novembre, non questo martedì”, diceva la voce. Sembrava il presidente Biden, ma era stata creata dall’intelligenza artificiale, secondo un’analisi della società di sicurezza Pindrop. Il messaggio scoraggiava anche gli elettori indipendenti dal partecipare alle primarie repubblicane.
Sui social media, tuttavia, l’origine della chiamata è stata oggetto di dibattito. Sull’applicazione Threads di Meta Platforms, alcuni utenti hanno visto un tentativo di sopprimere l’affluenza alle urne. “Questa è un’interferenza elettorale”, ha scritto uno di loro. Sul sito dell’ex presidente Donald Trump, Truth Social, alcuni utenti hanno incolpato i democratici della chiamata. “Probabilmente non è un falso”, ha scritto uno di loro.
Quando Pindrop ha analizzato l’audio, ha trovato segni rivelatori che la chiamata era falsa. La voce di Biden pronunciava le rumorose fricative che compongono le lettere S e F, ad esempio, in modo poco umano – scrive il WSJ.
Due settimane dopo, l’ufficio del procuratore generale del New Hampshire ha dichiarato di aver identificato una società con sede in Texas, la Life Corp., come fonte delle chiamate e di aver emesso un ordine di cessazione delle chiamate, citando la legge contro la manipolazione degli elettori. I rappresentanti della Life Corp. non hanno risposto alle e-mail di richiesta di commento.
L’USO DELL’IA SUI SOCIAL E LA LORO INFLUENZA SULLE ELEZIONI
Grazie ai recenti progressi dell’intelligenza artificiale generativa, chiunque può creare immagini, audio e video sempre più convincenti ma falsi, nonché utenti dei social media e bot fittizi che sembrano umani. Secondo i ricercatori e i funzionari statunitensi, nel 2024, anno in cui si terranno le elezioni in tutto il mondo, gli elettori si stanno già imbattendo in falsificazioni alimentate dall’IA che rischiano di confonderli.
La proliferazione dei falsi di IA arriva anche quando le aziende di social media stanno cercando di evitare di dover giudicare questioni spinose relative ai contenuti della politica statunitense. Le piattaforme dicono anche di voler rispettare le considerazioni sulla libertà di parola.
Secondo la Fondazione internazionale per i sistemi elettorali, quest’anno si terranno le elezioni nazionali in circa 70 Paesi, che coprono circa la metà della popolazione mondiale (circa 4 miliardi di persone).
Sebbene i produttori di IA e le piattaforme di social media abbiano spesso politiche contro l’uso dell’IA in modo ingannevole o per fuorviare le persone su come votare, non è certo quanto queste aziende siano in grado di far rispettare tali regole.
COSA (NON) FARANNO OPENAI E META IN VISTA DELLE ELEZIONI
L’amministratore delegato di OpenAI, Sam Altman, ha dichiarato in occasione di un evento Bloomberg tenutosi a gennaio durante l’incontro annuale del World Economic Forum a Davos, in Svizzera, che sebbene OpenAI stia preparando delle misure di salvaguardia, è ancora cauto su come la tecnologia della sua azienda potrebbe essere utilizzata nelle elezioni. “Quest’anno dovremo seguire la situazione da vicino”, ha dichiarato Altman.
OpenAI ha dichiarato di aver adottato una serie di misure per prepararsi alle elezioni, tra cui il divieto di utilizzare i suoi strumenti per campagne politiche, la codifica dei dettagli sulla provenienza delle immagini generate dal suo strumento Dall-E e la risposta alle domande su come e dove votare negli Stati Uniti con un link a CanIVote.org, gestito dall’Associazione nazionale dei segretari di Stato.
All’inizio di febbraio, il consiglio di sorveglianza della società madre di Facebook, Meta Platforms, ha definito incoerenti le regole della piattaforma in materia di contenuti alterati, dopo aver esaminato un incidente dello scorso anno in cui Facebook non ha rimosso un video alterato di Biden.
Il comitato, un organo esterno creato dall’azienda, ha rilevato che Facebook ha rispettato la politica esistente, ma ha affermato che la piattaforma dovrebbe agire rapidamente per chiarire la sua politica sui contenuti manipolati prima delle prossime elezioni. Un portavoce di Meta ha dichiarato che l’azienda sta esaminando le indicazioni del comitato e che risponderà nei prossimi mesi.
Meta afferma che il suo piano per le elezioni del 2024 è in gran parte coerente con gli anni precedenti. Ad esempio, vieterà nuovi annunci politici nell’ultima settimana prima delle elezioni di novembre negli Stati Uniti. Meta etichetta anche le immagini fotorealistiche create con la sua funzione IA.
I DEEPFAKE E LA POLITICA
Chi ha studiato le elezioni discute su quanto un deepfake dell’IA possa effettivamente influenzare il voto di qualcuno, soprattutto in America, dove la maggior parte delle persone afferma di aver probabilmente già deciso chi appoggiare per la presidenza. Tuttavia, la possibilità stessa di falsi generati dall’IA potrebbe anche confondere le acque in un altro modo, inducendo le persone a mettere in dubbio anche le immagini e le registrazioni reali.
Le affermazioni sull’IA vengono usate per “screditare cose a cui la gente non vuole credere”, per esempio i video legittimi girati intorno agli attacchi di Hamas contro Israele del 7 ottobre, ha dichiarato Renée DiResta, responsabile della ricerca presso lo Stanford Internet Observatory.
I giganti dei social media sono da anni alle prese con le questioni relative ai contenuti politici. Nel 2020, si sono impegnati in modo aggressivo per controllare il discorso politico, in parte in risposta alle segnalazioni di interferenze russe nelle elezioni statunitensi di quattro anni prima.
Ora stanno allentando la presa su alcuni aspetti, in particolare su X di Elon Musk.
I SOCIAL HANNO FATTO MARCIA INDIETRO IN NOME DELLA LIBERTÀ DI PAROLA
Dopo l’acquisizione di Twitter nel 2022, Musk ha rinominato il sito e ha eliminato molte delle precedenti restrizioni in nome della libertà di parola. X ha ripristinato molti account precedentemente sospesi e ha iniziato a vendere segni di spunta verificati in precedenza destinati a personaggi di spicco. X ha anche tagliato più di 1.200 addetti alla reputazione e alla sicurezza, secondo i dati comunicati l’anno scorso a un’autorità australiana per la sicurezza online, nell’ambito di licenziamenti generalizzati che secondo Musk erano necessari per stabilizzare la situazione finanziaria dell’azienda.
Più di recente, X ha dichiarato di voler assumere altri addetti alla sicurezza, tra cui circa 100 moderatori di contenuti che lavoreranno ad Austin, in Texas, e altre posizioni a livello globale.
YouTube ha dichiarato di aver smesso di rimuovere i video che sostengono l’esistenza di brogli diffusi nelle elezioni americane del 2020 e in altre elezioni passate, citando la preoccupazione di limitare il discorso politico. Meta ha assunto una posizione simile quando ha deciso di autorizzare annunci politici che mettevano in dubbio la legittimità della vittoria di Biden nel 2020.
Meta ha anche licenziato molti dipendenti che lavoravano alle politiche elettorali durante i licenziamenti più ampi iniziati alla fine del 2022, anche se l’azienda afferma che i suoi sforzi complessivi per la fiducia e la sicurezza sono aumentati.
X, Meta e YouTube hanno reintegrato Trump dopo averlo bandito in seguito all’attacco del 6 gennaio 2021 al Campidoglio degli Stati Uniti, adducendo come motivazione il fatto che il pubblico dovrebbe essere in grado di ascoltare le parole dei candidati. Trump ha ripetutamente affermato di aver vinto le elezioni del 2020 o che queste sono state “truccate”.
Katie Harbath, ex direttrice delle politiche pubbliche di Facebook, ha affermato che le piattaforme si sono esaurite nel tentativo di giudicare le questioni relative ai contenuti politici. “Non c’è un accordo chiaro su quali debbano essere esattamente le regole e le sanzioni – ha aggiunto -. Molte di loro hanno detto: ‘Probabilmente è meglio per noi non intervenire'”.
X AI TEMPI DELLE ELEZIONI USA 2020
Le aziende affermano di essere impegnate a combattere i contenuti ingannevoli e ad aiutare gli utenti a ottenere informazioni affidabili su come e dove votare. X afferma che i suoi sforzi includono il rafforzamento della funzione di fact-checking Community Notes, che si basa su volontari per aggiungere un contesto ai post.
I critici, tra cui Musk e molti conservatori, hanno criticato le misure adottate dai giganti dei social media per gestire i contenuti politici intorno al 2020, in particolare Twitter. Hanno fatto riferimento, ad esempio, a un episodio avvenuto poco prima del voto del novembre 2020, quando Twitter ha temporaneamente bloccato i link agli articoli del New York Post su Hunter Biden, figlio dell’attuale presidente Biden. (Il Post e il Wall Street Journal sono entrambi di proprietà di News Corp.).
I dirigenti di Twitter hanno poi ammesso di aver oltrepassato il limite, ma hanno detto di aver agito per preoccupazione nei confronti di materiale eventualmente hackerato, non per motivi di orientamento politico.
PERICOLO INTERFERENZE DALL’ESTERO
Altri cambiamenti in questo ciclo elettorale sono scaturiti da un’azione legale condotta dai procuratori generali repubblicani del Missouri e della Louisiana, che sostengono che i funzionari dell’amministrazione Biden hanno controllato i post sui social media in modi che equivalgono a una censura incostituzionale. I tribunali di grado inferiore hanno emesso sentenze che impongono limiti al modo in cui il governo federale può comunicare con le piattaforme di social media, ma la Corte Suprema ha successivamente sospeso tali decisioni. Il caso è ora all’esame della Corte Suprema. Anche i repubblicani del Congresso hanno indagato sugli sforzi antidisinformazione.
“Stiamo interagendo con le società di social media, ma tutte queste interazioni sono cambiate radicalmente in seguito alla sentenza della Corte”, ha dichiarato il direttore del Federal Bureau of Investigation Christopher Wray durante un’audizione al Senato in ottobre. Ha detto che l’agenzia stava agendo “per abbondanza di cautela”.
I funzionari democratici e i ricercatori sulla disinformazione affermano che tali comunicazioni sono fondamentali per combattere le attività nefaste online, compresi gli sforzi di influenza straniera.
Le autorità federali dicono di essere in allerta. Finora, gli Stati Uniti non hanno individuato una grande operazione di interferenza sostenuta dall’estero che abbia come obiettivo le elezioni del 2024, secondo gli alti funzionari dell’intelligence.
Il generale Paul Nakasone, capo del Cyber Command e dell’Agenzia per la sicurezza nazionale, da poco in pensione, prima di dimettersi aveva giurato che le elezioni americane del 2024 sarebbero state “le più sicure che abbiamo avuto finora” da interferenze straniere. “Se questo non funzionerà necessariamente con la stessa metodologia del ’22 o del ’20”, ha aggiunto, “allora dobbiamo trovare nuovi modi per farlo”.
(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)