Skip to content

intelligenza artificiale stati uniti

L’intelligenza artificiale è un pericolo per le elezioni? Report Economist

Il 2024 sarà un anno di elezioni e, grazie all'intelligenza artificiale, gli attori malevoli riusciranno a generare fake news con maggiore facilità. Ma la tenuta delle democrazie non è in pericolo, secondo l'Economist. Ecco perché.

Il 2024 non sarà solo l’anno in cui quattro miliardi di persone in tutto il mondo andranno a votare per il proprio presidente o primo ministro, ma sarà anche il momento in cui vedremo dispiegata in tutto il suo carattere dirompente la propaganda artificiale creata attraverso i sofisticati modelli di un’innovazione tecnologica chiave come l’Intelligenza artificiale (IA) generativa. A sottolinearlo è l’Economist in un articolo che, oltre ad evidenziare tutti i rischi, propone una valutazione tutto sommato ottimistica.

Elezioni in arrivo

Il 2024 sarà un anno elettorale cruciale per il mondo libero, con oltre quattro miliardi di persone – inclusi i cittadini di Usa, India, Gran Bretagna, Indonesia, Messico e Taiwan – che esprimeranno una preferenza nelle rispettive tornate elettorali.

Giacché elezioni è sinonimo di propaganda, il voto prossimo venturo è un osservato speciale alla luce di una novità dirompente come l’IA generativa.

Dalla propaganda umana a quella artificiale

Come osserva l’Economist, la propaganda e la disinformazione sono sempre esistite. Basti ricordare cosa è successo nel 2020, con Donald Trump e i suoi seguaci che hanno usato media convenzionali per diffondere la bugia secondo cui le elezioni erano state truccate. Oppure l’ultima tornata elettorale indiana, piagata da rumor circolati vorticosamente attraverso catene di S. Antonio via WhatsApp.

Il problema è che una volta manipolazioni e fake news erano prodotto dell’uomo, mentre con l’IA, i cui modelli sono in grado di creare testi sofisticati e immagini realistiche, la propaganda ora è anche artificiale.

Quantità e qualità

L’IA cambia il quadro sia in termini di qualità che di quantità. Cosa cambia se un’operazione di disinformazione viene moltiplicata per mille o addirittura per centomila? E poi, in merito alla qualità, cosa potrebbe succedere agli elettori dopo aver ricevuto sui propri telefonini audio, foto o video iperrealistici o falsi?

Proprio come era stato per i Big Data, l’avvento dell’IA significa inoltre anche possibilità di un microtargeting estremo, con gli elettori inondati da fiumi di propaganda personalizzata.

Il possibile risultato di tutte queste novità è che i cittadini, che già dubitano della politica in generale, potrebbero non credere più a niente.

Democrazia in pericolo?

Se queste preoccupazioni sono legittime, vi sono anche ragioni per ritenere che la democrazia non sia in pericolo. Decenni di studi sulle campagne elettorali negli Usa hanno dimostrato quanto sia difficile persuadere gli elettori a cambiare idea scegliendo l’uno o l’altro candidato, e ciò nonostante gli sforzi profusi da un’industria multimiliardaria della propaganda.

E i deepfake? Per quanto possano apparire inquietanti, le immagini iperrealistiche generate dall’IA rappresentano ancora un esperimento che richiede bravura e competenze tecnologiche.

Ma anche nel caso si rivelassero efficaci, l’effetto cumulativo della loro eventuale adozione da parte di tutti i partiti in competizione sarebbe quello di rendere i social network in cui verrebbero lanciati un ambiente ancor più cacofonico e inservibile. Nessuno, in poche parole, ne risulterebbe avvantaggiato.

Il ruolo della regolamentazione

Ma il rischio esiste e infatti le aziende che operano nel campo dell’IA sono già al lavoro sulle contromisure. OpenAi, la società che ha lanciato ChatGPT, ha promesso di monitorare i suoi prodotti per individuare per tempo operazioni di propaganda.  Già criticate in passato per non aver tenuto sotto controllo la disinformazione, le principali piattaforme social sono ormai diventate abili nell’identificare gli account sospetti. Alphabet e Meta proibiscono esplicitamente l’uso di media manipolati e sostengono di essere pronti ad affrontare la sfida dei deepfake.

La regolamentazione ha tuttavia dei limiti e i social network non sono tutti uguali. La app di Tik Tok è studiata appositamente per incoraggiare la viralità da qualsiasi fonte origini il materiale diffuso. Da quando è finito sotto il controllo di Elon Musk ed è stata ridenominato X, Twitter ha tagliato lo staff che sorvegliava e censurava i contenuti sospetti ed è tornato ad essere il paradiso dei bot.

E se l’agenzia Usa che regolamenta le campagne elettorali sta valutando l’introduzione di strumenti di trasparenza per i contenuti generati dall’IA, è lecito pensare che gli attori più spregiudicati non rispetteranno alcuna direttiva.

No ai determinismi tecnologici

C’è però un motivo per cui l’Economist conclude questa rassegna con una nota di ottimismo, e rimanda ai risultati dell’antico dibattito nelle scienze sociali sugli effetti dei nuovi media sulla società. Una lunga tradizione di ricerche sull’impatto di strumenti comunicativi come giornali, radio, tv e internet ha mostrato l’illegittimità di ogni determinismo tecnologico che fa supporre conseguenze catastrofiche o al contrario interamente benefiche dell’avvento di nuove forme di comunicazione.

Lo stesso termine “effetti” dei media è stato ridimensionato, conferendo ai destinatari di un messaggio propagandistico un ruolo non aggirabile di attore consapevole e niente affatto esposto a repentini mutamenti di opinione.

Eco docet

Se già Umberto Eco in un famoso saggio dimostrava la vacuità del famoso dilemma “apocalittici o integrati”, mettendo in chiaro come il protagonista di ogni atto comunicativo è sempre l’uomo che l’interpreta, si può pensare che anche oggi, di fronte a un’innovazione dirompente come l’IA generativa, l’essere umano non ne risulterà “indemoniato”,  restando invece artefice del proprio destino e dunque anche delle proprie scelte elettorali.

Torna su