skip to Main Content

Tiktok Usa

Tutti i rischi cyber delle campagne elettorali su TikTok

Non solo politica. Perché TikTok è una piattaforma diversa dalle altre. L'approfondimento di Francesco D’Arrigo, direttore dell’Istituto Italiano Studi Strategici “Niccolò Machiavelli”

 

Il cyberspazio sta crescendo rapidamente ed attualmente comprende più di 17 miliardi di dispositivi connessi, ed ulteriori decine di miliardi si aggiungeranno nei prossimi decenni.

Dispositivi che stanno generando un nuovo tipo di essere umano deresponsabilizzato – definito da Bauman nel suo libro La Società sotto assedio – “uomo spettatore” che cerca la sua giustificazione di indifferenza in un comodo ruolo di testimonianza intagliatosi nel web e nei social media.

Nuove tecnologie che oltre ad ottenere, con il nostro consenso, l’accesso a tutti i nostri dati sensibili (bypassando qualsiasi normativa a tutela della privacy), celano una preoccupante forma di hacking cognitivo, cioè propaganda digitalmente realizzata e diffusa che cerca di manipolare la percezione delle persone sfruttando le loro vulnerabilità psicologiche. L’hacking cognitivo è una forma di ingegneria sociale che si può imporre a un vasto pubblico piuttosto che a individui specifici, che ha raggiunto una forma di potere mai realizzata prima d’ora e rappresenta un grande rischio per la sicurezza nazionale, in quanto guidato dall’intelligenza artificiale (AI) che si cela dietro algoritmi segreti presenti in alcune piattaforme social, diventate a loro volta un’arma micidiale della guerra ibrida in atto anche in un’Italia sempre più permeabile all’influenza russa e cinese.

Una guerra in cui gli attori non statali (non State actors) lavorano parallelamente agli attori statali (State actors) per influenzare la realtà percepita.

Realtà percepita che non ha bisogno di influenzare la maggior parte del pubblico per essere efficace.

Basta convincere solo una piccolissima percentuale di una popolazione per destabilizzare una democrazia in modo abbastanza efficace con proteste, rivolte e operazioni di disinformazione che mirano alla delegittimazione dell’ordine democratico ed al crollo della fiducia nelle istituzioni.

Quindi la domanda che ci si deve porre è: quanto è difficile radicalizzare una piccola percentuale dell’opinione pubblica con forme moderne di persuasione?

La risposta: è pericolosamente facile.

Rimuoviamo momentaneamente dall’analisi se le cause che hanno recentemente fatto insorgere i movimenti sociali No-Vax nelle democrazie occidentali, siano giustificati o meno.

L’intenzione non è quella di analizzare i principi di questi movimenti, ma piuttosto di considerare se è possibile, attraverso la propaganda digitale ed il condizionamento sociale, radicalizzare cittadini attivi e non violenti a porre in essere azioni contrarie ai propri interessi. In altre parole, una buona causa può essere intenzionalmente trasformata in una azione contraria agli interessi di una popolazione a sua insaputa?

Quello che sappiamo è che il potenziale vantaggio per un avversario straniero nel radicalizzare intenzionalmente elementi di qualsiasi malcontento sociale è potenzialmente incalcolabile. Il rischio per chi sferra l’attacco è minimo, anche perché ogni aspetto della tecnologia esiste già ed il processo di attribution, cioè tracciare, identificare e incolpare l’autore di un hack cognitivo, di una campagna di disinformazione, di un cyber attacco o di un altro exploit cibernetico è estremamente complesso.

Tutti elementi che esplicitano l’intento illiberale dei social media, che con il loro design ottimizzato per il profitto a discapito della verità e dando priorità alla viralità piuttosto che alla qualità dell’informazione, hanno favorito il diffondersi delle fake news e del dissenso, causando profondi ostacoli alla governance. Possiamo vedere il risultato della piaga delle fake news negli effetti pericolosamente corrosivi che la disinformazione attraverso i social media può avere sulla salute di una democrazia e la sua capacità di reagire efficacemente a tutela dell’interesse nazionale nell’attuale contesto geopolitico di guerra, così come nelle strategie di ingerenza russa e cinese in Italia. Possiamo vederlo nell’ethos anti-scienza e anti-esperto che infetta gran parte dei “dibattiti” sull’invasione russa dell’Ucraina, sul cambiamento climatico, sull’energia nucleare e sui vaccini anti Covid.

TIKTOK, L’APP DI “INTRATTENIMENTO” DEI GIOVANI SVILUPPATA DA UNO STATO TOTALITARIO

In questi giorni di campagna elettorale italiana, sta acquisendo un ruolo significativo TikTok, un social media assolutamente sottovalutato nella sua intrinseca pericolosità e che recentemente ha scosso anche le coscienze degli italiani per i casi di suicidio di minori che utilizzavano questa applicazione per partecipare ad eventi organizzati in quella piattaforma social.

TikTok è di proprietà dell’azienda privata cinese ByteDance Ltd e la sua app di short video, popolare a livello globale soprattutto tra i giovani e gli adolescenti, è già stata scaricata più di 2 miliardi di volte da App Store e Google Play. Recenti indagini sulla sua proprietà fanno ritenere che la sua leadership sia vulnerabile all’influenza esercitata dal Partito Comunista Cinese. Ciò avviene perché tutte le società cinesi sono obbligate a seguire le direttive del CCP anche se le loro entità, i soci, gli utenti e le sedi sono internazionali, poiché queste direttive si applicano a tutte le aziende ed ai singoli cittadini cinesi a livello globale. La legge nazionale sull’intelligence cinese del 2017 stabilisce che “qualsiasi organizzazione e cittadino” deve sostenere e cooperare” con il lavoro dell’intelligence nazionale.

Pertanto, oltre ad avere accesso a tutti i dati degli utenti che utilizzano la app cinesi, il governo di Pechino può utilizzare le capacità di hacking cognitivo di TikTok, e la preoccupazione delle Agenzie di intelligence che hanno analizzato questo social media è rappresentata dalla vulnerabilità della sicurezza cibernetica, come la Casa Bianca ha  evidenziato in un ordine esecutivo emanato nel 2020 dall’Amministrazione Trump. Per questi motivi negli Stati Uniti da diversi anni ormai infuria la battaglia legale e tecnologica contro TikTok ed altre aziende mentre proseguono le indagini ed anche il presidente Biden promulga Ordini Esecutivi per limitare o addirittura vietare l’utilizzo di alcune app e tecnologie cinesi negli Usa. Recentemente, anche il governo britannico ha deciso di attuare restrizioni su TikTok, a causa delle preoccupazioni legate alla raccolta di dati sensibili, chiudendo l’account TikTok del Parlamento del Regno Unito, dopo che i Servizi di sicurezza ed i deputati hanno sollevato preoccupazioni sul rischio di trasmissione dei dati al governo cinese.

Gli esperti ritengono che attraverso TikTok si può facilmente destabilizzare una campagna elettorale effettuando hack cognitivi, aumentando l’attrazione verso un particolare video la cui manipolazione non necessita di alcuna particolare abilità tecnica; è sufficiente soltanto un’analisi psicosociale della località, dei suoi abitanti e del periodo elettorale ideale per pubblicarlo.

Lo strumento più comune utilizzato in un hack cognitivo sono le “informazioni armate”: messaggi o contenuti progettati per influenzare le percezioni e le convinzioni dell’utente in un modo che danneggino un determinato bersaglio. L'”attacco” attivo viene effettuato dalle persone colpite da quei messaggi.

Ad esempio, la disinformazione su un candidato politico potrebbe diventare virale e convincere un gran numero di persone a votare per qualcun altro.

Questo tipo di operazioni sono già state realizzate con successo su diverse piattaforme online, soprattutto Facebook e Twitter, dove la comunicazione non mediata prima delle elezioni presidenziali del 2016 ha raggiunto livelli di aggressività e disinformazione mai visti prima. Su Facebook sono circolati post con il volto di Hillary Clinton stravolta, deformata come un demonio, accompagnati dalle teorie cospirazioniste più strampalate. Deepfake video che descrivevano il “fatto” che lei e il suo responsabile della campagna elettorale John Podesta appartenessero ad una setta satanica, dopo la pubblicazione da parte di hacker (presumibilmente russi), di uno scambio di email in cui si parlava di una cena organizzata con “spirit cooking”…

Oppure, come sta avvenendo in queste ore su Instagram con la campagna di disinformazione scatenata dai video diventati virali anche nelle altre piattaforme social, delle feste della giovane premier finlandese Sanna Marin, considerata la peggior nemica di Vladimir Putin. I video della Marin sono stati esfiltrati da uno smartphone hackerato di uno dei partecipanti al party, per delegittimarla dopo che ha deciso di dire addio alla neutralità del suo Paese entrando nella Nato?

PERCHÉ TIKTOK È UNA PIATTAFORMA DIVERSA DA TUTTE LE ALTRE?

TikTok è una app fondamentalmente diversa da altri social media, non solo per la capacità di agganciare e raccogliere tutti i dati degli utenti ma soprattutto per le tecniche di intelligenza artificiale messe a disposizione dall’esercito cinese per manipolare e modellare il comportamento degli utenti e dei suoi cittadini.

Si tratta di un programma che sviluppa modelli comportamentali predittivi estrapolati dai dati digitali esposti dagli utenti online attraverso i loro computer, i loro smartphone, i dispositivi indossabili e quasi tutti gli altri dispositivi di tracciamento dei dati. A differenza di Facebook che analizza l’attuale rete di amicizie, TikTok utilizza un profilo comportamentale alimentato dall’intelligenza artificiale per popolare il feed di un utente prima ancora che gli amici siano aggiunti sull’account. Prevede anche il tipo di amici che dovresti avere per la tua personalità.

Una volta equipaggiata con queste informazioni, TikTok AI ha la capacità di plasmare il comportamento degli utenti più giovani e di influenzarli utilizzando metodi simili a quelli usati dagli addestratori di cani, cioè distribuendo cicli di feedback positivi e negativi per incoraggiarli a comportarsi in determinati modi. In pratica l’utente vede un feed di persone a cui non è necessariamente collegato che pubblicano video che appaiono divertenti o eccitanti che generano emozioni positive, a quel punto gli utenti possono essere indirizzati a guardare un qualsiasi video di disinformazione e/o propaganda, con la sollecitazione a condividerlo. Con l’esposizione ripetuta alle emozioni positive, gli utenti più giovani e manipolabili diventeranno inconsciamente legate al messaggio propagandistico allo stesso modo in cui i dog brain trainer addestrano i cani.

Alcuni esperti codificatori hanno rivendicato di aver decodificato alcuni di questi processi, rilevando che nel corso del tempo gli adolescenti potrebbero essere indotti ad associare emozioni positive ad alcune situazioni politiche positive ad una parte politica o reagire negativamente alle posizioni negative alla medesima parte politica.

La tecnologia ha inoltre la capacità di creare un profilo specifico per l’utente, delle paure e delle ansie degli individui, imparando quali stimoli possono innescare le risposte e i comportamenti desiderati. Potrebbe quindi utilizzare principi che creano dipendenza e implementare stimoli che costringono i giovani ad adottare determinati comportamenti. Ed è qui che arriva la dipendenza. Da recenti studi è stato rilevato che tutto ciò che genera dopamina e cortisolo, ed i social per i giovani adulti hanno questo effetto, trasformerà la corteccia prefrontale anche quando si è offline.

A Parigi alcuni scienziati stanno costruendo un “sistema limbico robotico” per testare questo paradigma, soprattutto per quanto concerne il comportamento dei bambini.

Ovviamente TikTok ha sempre respinto queste critiche, definendole “disinformazione” innescate dalla guerra commerciale tra USA e Cina e si è dichiarata favorevole e disponibile a verifiche, definendo ridicole le accuse di amplificazione di contenuti per conto del governo cinese.

I legali di TikTok hanno dichiarato che l’azienda ha effettuato diversi audit interni sulla sicurezza dell’app, rilevando inesatte le accuse che riflettevano l’analisi di vecchie versioni della app, ed hanno anche ricordato che i dati degli utenti di TikTok sono memorizzati negli Stati Uniti e Singapore e l’app non è nemmeno disponibile in Cina.

Tuttavia, è stato ampiamente dimostrato che TikTok utilizza intelligenza artificiale di profiling comportamentale in grado di influenzare il comportamento degli utenti, notevolmente simile a quella dell’app sorella Douyin – che è anch’essa di proprietà di ByteDance ma può essere scaricata solo in Cina.

Da qui le preoccupazioni delle Agenzie di Intelligence Usa, che ritengono questa IA di profiling comportamentale già molto utilizzata dal governo cinese per tentare di esercitare il controllo sociale e politico per modellare preventivamente il comportamento delle persone su una scala mai vista prima nella storia dell’umanità.

I RISCHI POSTI DAI SOCIAL MEDIA

Le violazioni della privacy non sono l’unica preoccupazione, considerata la disponibilità degli utenti a concedere i propri dati sensibili pur di utilizzare le varie app.

La vera minaccia sono gli obiettivi strategici dell’intelligenza artificiale che utilizza i dati di TikTok per scopi di manipolazione psicologica.

Da un’ampia indagine ancora in corso, gli esperti della NSA hanno scoperto che non solo TikTok ma anche le diffusissime piattaforme e app Alipay di Ant Group, WeChat Pay, QQ Wallet, Tencent QQ, CamScanner, SHAREit, VMate, capaci di catturare i dati di miliardi di utilizzatori che le hanno scaricate sui loro dispositivi, di comprenderne i bisogni e potenzialmente influenzarne il processo decisionale, in particolare di giovani e giovanissimi, rappresentano un’enorme falla nella tutela della privacy, ma soprattutto i legami che hanno con il partito comunista cinese e gli ISP cinesi le rendono una fonte di raccolta dati molto preoccupante per la sicurezza nazionale.

Una considerazione importante riguarda i nostri giovani, le generazioni che rappresentano il futuro del Paese. Bisogna aiutare i genitori dei minori a comprendere che TikTok è un social molto diverso dagli altri, e nemmeno gli adulti, in buona parte, ne comprendono i rischi al 100%, perché oltre a concedere ad uno Stato autocratico la possibilità di schedare e monitorare i nostri figli, questi dati vengono usati per operazioni di influenza cui sono maggiormente esposti perché sono più facilmente assimilabili dai ragazzi e dai giovanissimi.

Un esempio: si notano poco i testi o la didascalia sotto ad un video, ma su TikTok i giovani si esprimono in codice, è là che si cela uno dei pericoli che rendono complessa l’individuazione dell’istigazione a commettere atti di violenza, reati o al suicidio.

Secondo il Centro per il Controllo delle Malattie, il suicidio è la seconda causa di morte per i giovani, con un fortissimo incremento negli ultimi anni tra i ragazzi che usano i social media, di età compresa tra i 10 e i 24 anni.

Per questi motivi urge implementare una campagna culturale di “cyber education” rivolta a tutta la cittadinanza, per aiutare i nostri giovani a difendersi dall’hacking cognitivo, per fornire conoscenze più approfondite a chi lavora nelle grandi aziende pubbliche e private, nelle istituzioni, in particolare a chi ricopre responsabilità esecutive.

L’assenza di consapevolezza del rischio cibernetico dei nostri leader politici e la minaccia che tali app rappresentano per la sicurezza nazionale non può certamente essere bilanciata dai like, che comunque quasi mai corrispondono a voti nelle urne.

Back To Top