Skip to content

chatbot

I chatbot di intelligenza artificiale diffondono la propaganda russa?

Secondo un'indagine di NewsGuard, in oltre il 30 per cento dei casi i chatbot alimentati da intelligenza artificiale replicano narrazioni false della propaganda russa. Tutti i dettagli.

Quando l’algoritmo diventa un megafono per la propaganda, la verità rischia di dissolversi in un labirinto di pixel e disinformazione. I chatbot basati sull’intelligenza artificiale, ormai compagni quotidiani di oltre un quarto dei tedeschi di età superiore ai 16 anni, si rivelano vulnerabili e pronti a diffondere notizie false con la stessa disinvoltura con cui restituiscono informazioni apparentemente attendibili.

Un’indagine condotta da NewsGuard, servizio fornito da un team di giornalisti esperti che valuta l’affidabilità delle fonti di notizie online, e ripresa dalla tv pubblica tedesca Ard, svela uno scenario inquietante: i principali chatbot di intelligenza artificiale sono stati “infettati” dalla macchina della disinformazione, in particolare dalla rete Pravda vicina al Cremlino. Il dato è sorprendente: nel 33% dei casi, questi sistemi hanno ripetuto acriticamente narrazioni false, diventando involontari altoparlanti di propaganda.

Il meccanismo è subdolo quanto efficace. La rete Pravda ha sviluppato una strategia sofisticata: inondare Internet di contenuti appositamente progettati per aggirare gli algoritmi di ricerca. I manipolatori russi hanno creato 150 siti web mascherati da fonti indipendenti, ottimizzati per ingannare i sistemi di intelligenza artificiale. Nel 2024, ben 3,6 milioni di articoli sono stati immessi nei sistemi occidentali, contaminando potenzialmente milioni di conversazioni digitali.

Le autrici dell’indagine, McKenzie Sadeghi e Isis Blachez, analiste presso NewsGuard, denunciano un rischio sistemico: i chatbot non possiedono ancora meccanismi rigorosi per valutare la credibilità delle fonti. Sono macchine affascinanti ma ingenue, che attingono indifferentemente da sorgenti attendibili e inaffidabili. Un problema particolarmente critico in ecosistemi informativi fragili o fortemente influenzati da narrativa governativa.

Le previsioni degli analisti di mercato sono chiare: entro il 2026, i motori di ricerca tradizionali potrebbero subire un crollo del 25% del volume di ricerche, sostituiti da questi nuovi assistenti digitali. Più i chatbot si integreranno nella vita quotidiana, più aumenterà il rischio di manipolazione.

Altri studi confermano le vulnerabilità: secondo la “Columbia Journalism Review”, storica rivista che si dedica all’analisi critica del giornalismo, il 60 per cento delle richieste riceve citazioni errate, e i chatbot tendono a produrre risposte speculative piuttosto che ammettere i propri limiti. Un cortocircuito cognitivo che può avere conseguenze dirompenti sulla percezione pubblica. Anche perché, confermano Sadeghi e Blachez, i problemi sono difficili da risolvere: “Anche se i modelli fossero programmati in modo da bloccare oggi tutti i siti Pravda esistenti, il giorno dopo i manipolatori russi inonderebbero il web con nuovi siti”.

La soluzione richiederà un approccio multidimensionale, concludono gli autori dell’indagine di NewsGuard: monitoraggio umano costante, investimenti in fonti affidabili, attenzione alle minacce di disinformazione in lingue diverse dall’inglese e una collaborazione trasversale tra esperti. Perché l’intelligenza artificiale, per quanto sofisticata, rimane uno strumento e, come ogni strumento, ha bisogno di essere guidato con consapevolezza e senso critico.

Torna su