Skip to content

disinformazione

Ecco le centrali statali della disinformazione. Parla Mattia Caniglia (Atlantic Council)

Centrali e tecniche della disinformazione. Conversazione con Mattia Caniglia, ricercatore dell’Atlantic Council e relatore del convegno “Combattere la disinformazione" al Meeting di Rimini

Il 2024 sarà l’anno più “elettorale” di sempre. Dall’Europa, all’Asia, alle Americhe, circa due miliardi di elettori sono stati chiamati e saranno chiamati alle urne. A novembre, inoltre, si terrà una delle elezioni più significative, quella del presidente degli Stati Uniti d’America. In questa situazione non è difficile immaginare che le centrali della disinformazione siano già all’opera per inquinare e orientare il dibattito politico ed elettorale. A facilitare il “lavoro” degli inquinatori dei pozzi della comunicazione arrivano anche gli strumenti di intelligenza artificiale il cui rapido sviluppo stimola riflessioni sulle strategie per distinguere il vero dal falso.

LE CHEAP FAKE SONO PIÙ PERICOLOSE DELLE DEEPFAKE

“I pericoli maggiori arrivano dalle cheap fake e non dalle deepfake”. A dirlo è Mattia Caniglia, ricercatore dell’Atlantic Council e relatore del convegno “Combattere la disinformazione” al Meeting di Rimini. “Le deep fake sono immagini realizzate in maniera straordinariamente accurata mentre le cheap fake sono molto facili da riconoscere come false”, spiega Caniglia. La maggiore pericolosità deriva, dunque, dal fatto che è più semplice realizzare le cheap fake che “sono rilanciate in momenti cruciali, di crisi o di hype, all’interno del discorso politico nel paese in cui si svolge l’evento elettorale. Di conseguenza, proprio perché c’è hype e le persone, gli elettori, non si riservano il tempo per controllare la veridicità delle informazioni, c’è il rischio che si diffondano velocemente. L’intelligenza artificiale, anche generativa, è solo uno strumento, tutto dipende da come viene utilizzata”.

WEAPONIZATION OF LONELINESS: LA DISINFORMAZIONE APPROFITTA DELLA SOLITUDINE

I rischi maggiori, legati all’uso di strumenti di intelligenza artificiale, nel presente e nel prossimo futuro, sono numerosi. “Nei prossimi anni andremo incontro a una serie di problematiche legate a quella che in inglese si chiama weaponization of loneliness. Cioè la possibilità di sfruttare la solitudine come un’arma – spiega l’analista dell’Atlantic Council -. Faccio un esempio: nelle ultime elezioni a Singapore il Partito comunista cinese aveva predisposto degli uffici che chiamavano a casa i cittadini per cercare di influenzare la loro opinione sul candidato che Pechino riteneva più favorevole alle sue politiche. La possibilità che queste attività siano svolte da un bot, da un’intelligenza artificiale è vicinissima. In questo momento negli Usa ci sono candidati che si stanno affidando a election assistant virtuali per i propri siti internet ma arriveremo al punto in cui strumenti di intelligenza artificiale saranno in grado di chiamarci a casa o interagire con noi sui social per lunghi periodi. Questo rientra nella weaponization of loneliness. Non sta ancora succedendo ma siamo molto vicini.

LE STRATEGIE PER RICONOSCERE LA DISINFORMAZIONE

Ma non siamo completamente disarmati nei confronti della disinformazione. Senza ricorrere alla censura, una strategia può essere quella di porre attenzione ai mezzi utilizzati per diffondere contenuti di disinformazione. “Questa è anche la ratio del Foreign interference and information manipulation dell’Unione europea. Se noi ci focalizziamo sul contenuto, questo rapidamente diventa politico e, se diventa politico, è complicato, rispetto alla nostra struttura di valori, decidere cosa sia accettabile e cosa no – spiega Mattia Caniglia -. Chiaramente la verità è osservabile ma a volte servono molti anni per scoprirla, in Italia lo sappiamo bene. Il focus si deve spostare sulle modalità perché sono quelle che lasciano le digital breadcrumbs, perché è l’attività inautentica che lascia quelle impronte e che, grazie alla scienza digitale forense, riusciamo a rintracciare. Dunque, non è tanto il contenuto della comunicazione ma se quel contenuto viene veicolato grazie a strutture e comportamenti che vengono definiti e coordinati in maniera inautentica. Questo significa che non sono delle persone vere a condividere contenuti sui social media ma bot coordinati da una struttura o da un gruppo di persone, come nel caso delle operazioni di informazioni gestite dai servizi russi o cinesi”.

I CASI DI DISINFORMAZIONE IN UCRAINA E CINA

I casi sono già numerosi. “Poco prima dell’invasione dell’Ucraina da parte della Russia è stata impostata una campagna di disinformazione che serviva a preparare la popolazione del Donbass all’arrivo delle truppe russe – continua Caniglia -. All’interno di questa campagna venne diffusa la notizia, falsa, della crocifissione di bambini russofoni da parte dell’esercito di Kiev. Ecco quella notizia è diventata virale in Donbass grazie all’utilizzo di una serie di account non autentici che il Cremlino aveva preparato. Una cosa simile ha fatto la Cina per allontanare da sé le responsabilità nell’ambito della pandemia da Covid 19. In quel caso la notizia veicolata attribuiva la diffusione del coronavirus a un contingente americano arrivato in Cina per le olimpiadi militari. Ecco concentrarci sul metodo e non sul merito ci permette di metterci al riparo dalla “polizia della verità”, incompatibile con le nostre società ma, allo stesso tempo, di difenderci dalla disinformazione.

LE CENTRALI DI DISINFORMAZIONE IN RUSSIA, IRAN E CINA

Se i paesi dell’area occidentale non hanno sul loro territorio centrali di disinformazione “per lo meno non più dalla caduta del Muro di Berlino”, le maggiori centrali di disinformazione si trovano in “Russia e in Cina ma anche in Iran e, recentemente, anche l’Azerbaigian”. Quest’ultimo si è presentato solo di recente sul “mercato della disinformazione”. “Per rifarsi sulla Francia per il suo sostegno all’Armenia nell’ambito del conflitto del Nagorno Karabakh, ha lanciato una campagna di disinformazione in Nuova Caledonia dove si votava il referendum che chiedeva ai cittadini di scegliere se continuare a far parte della Francia. Una campagna che ha sortito effetti importanti, portando anche a disordini per le strade della Nuova Caledonia. E poi ci sono gli attori non statali, terroristici, come Hamas che ha condotto azioni di disinformazione online”.

Torna su