Skip to content

phica

La piattaforma Phica è uno strumento della guerra ibrida russa all’Italia?

La domanda non è più se la Russia conduca una guerra ibrida in Italia, ma fino a che punto strumenti come Phica possano incidere sulla nostra vita politica. L'analisi di Francesco D'Arrigo e Tommaso Alessandro De Filippo.

Negli ultimi giorni ha destato scalpore la mole di contenuti privati ed intimi di cittadini italiani, tra cui esponenti politici femminili di rilievo, postati sulla piattaforma Phica.Eu.

Fondata nel 2005, ufficialmente questa si presenta come un portale di condivisione online di immagini, video, post con possibilità di commento, con server registrati in Bulgaria. In realtà, dietro l’apparenza neutrale, emergono elementi che fanno pensare a un progetto ben più sofisticato: un’arma digitale, che possa essere diventata utile da sfruttare per la conduzione di operazioni tali da poter rientrare nella strategia “misure attive” condotta dai Servizi di sicurezza della Federazione Russa.

Operazioni volte a delegittimare, intimidire ed esercitare pressioni su rappresentanti istituzionali, esponenti politici, giornalisti e personalità note, allo scopo di condizionare la nostra sfera pubblica e socioeconomica.

La piattaforma risulta domiciliata in Bulgaria, Paese che, nonostante abbia completato il processo di adesione all’Unione Europea il 1º gennaio 2007, non è ancora riuscito ad abbandonare una tradizione di “zona grigia” per iniziative di intelligence russe, e registra normative di regolamentazione della Rete certamente diverse da quelle italiane, che rendono più difficili le indagini e l’attribuzione dei reati online. Non è la prima volta che infrastrutture e reti informatiche balcaniche vengono infiltrate per operazioni di disinformazione e propaganda per sfruttare normative meno stringenti e sistemi di controllo labili. La collocazione legale di questa opaca piattaforma in Bulgaria, ne ha certamente facilitato la penetrazione dei troll russi. Inoltre, potrebbe accertarne l’avvenuto tentativo utile a depistare e costruire uno schermo dietro cui agire senza che le responsabilità risalgano facilmente alla fonte primaria ed originale dell’operazione. Infatti, i parlamentari, i giornalisti gli attivisti italiani che hanno provato a denunciare sui social media l’attività di Phica.Eu, sono stati travolti da una reazione fulminea generata dall’IA: insulti, minacce, campagne denigratorie originati da bot e profili falsi. È stato il caso dell’attivista ed esperta di “revenge porn” napoletana Mariateresa Passarelli: i suoi profili social hanno subito una shitstorm quando ha denunciato l’uso improprio, anche di sue fotografie, da parte della piattaforma sui suoi canali: centinaia di commenti provenienti da profili falsi hanno commentato con offese e minacce estremamente gravi i suoi post, in maniera simultanea e chiaramente generati da troll. Larga parte degli account sono attribuibili appunto ai bot: profili automatizzati o semi-automatizzati, con comportamenti, risposte e modalità comunicative tipiche delle troll farm già viste in passato in operazioni di disinformazione.

La loro efficacia è amplificata dalla scelta dei social del gruppo Meta o di X, arrivata su spinta esplicita dell’amministrazione Trump e con la firma di un ordine esecutivo presidenziale, che ha abolito le norme di fact-checking a cui le piattaforme social dovevano attenersi per salvaguardare autenticità dei profili e tutela della privacy degli utenti. L’obiettivo dietro un’operazione come quella di Phica.Eu è duplice: intimidire chi alza la voce e ridurre la credibilità delle denunce, trasformando le vittime in bersagli di linciaggio mediatico che, paradossalmente, contribuiscono ad alimentare il proprio massacro pubblico attraverso le loro denunce: più si caricano post inerenti le attivita illecite su Phica.Eu e se ne denunciano gli abusi, più l’algoritmo che regola i bot viene alimentato e aumenta la mole di commenti e accuse, fino alla possibilità che i canali social della persona sotto attacco possano venire bloccati o hackerati, al fine di sottrarne tutte le informazioni personali e quelle dei propri contatti. Un altro aspetto allarmante relativo la vicenda della piattaforma Phica.Eu riguarda la tipologia di contenuti caricati: foto private, intime, e potenzialmente compromettenti di figure politiche italiane di primo piano. Tra queste, il Presidente del Consiglio dei ministri Giorgia Meloni, la Segretaria del Partito Democratico Elly Schlein, l’On. ed ex Ministro Mara Carfagna e l’On. e responsabile esteri del Partito Democratico Lia Quartapelle.

La diffusione di materiale personale e perfino intimo relativo alla loro figura non riguarda solo violazioni della privacy. In un contesto di guerra ibrida queste azioni diventano un’arma di dossieraggio e ricatto politico e di attacco verso le istituzioni di uno Stato nemico. Bastano poche immagini, abilmente manipolate e diffuse, per tentare di condizionare le scelte di un parlamentare, per influenzare il processo decisionale di un ministro, per delegittimare pubblicamente un avversario politico o porre sotto pressione personaggi influenti e le loro famiglie.

L’attività di Phica.Eu sembra inserirsi in una trama ben più vasta: la guerra ibrida che la Russia conduce da anni contro l’Europa. Già durante la pandemia di COVID-19, ad esempio, le agenzie di sanità pubblica segnalarono ai cittadini la disinformazione contro i vaccini. Quel tipo di disinformazione digitale diffusa durante pandemie e disastri può portare a un’allocazione impropria delle risorse, a comportamenti e azioni contrastanti da parte del pubblico e a ritardi nelle risposte alle emergenze. In questi casi, le agenzie di gestione delle catastrofi devono affrontare non solo la crisi, ma anche le sfide secondarie create dalla disinformazione. Durante le emergenze, quando le persone sono stressate e necessitano di informazioni affidabili, la disinformazione digitale può causare danni significativi diffondendo confusione, panico e perfino provocare morti.

Dalla disinformazione sui vaccini alle interferenze nei processi elettorali, fino agli attacchi informatici a infrastrutture critiche, la logica resta la stessa: indebolire dall’interno, minando fiducia, unità e credibilità delle istituzioni democratiche europee.

L’Italia, per i suoi peculiari equilibri politici spesso fragili, rappresenta un obiettivo privilegiato delle tattiche ibride russe. La campagna di delegittimazione dei leader più influenti, ha visto un’escalation dall’inizio dell’”Operazione Militare Speciale” russa, nel tentativo di influenzare le scelte in politica estera, le posizioni assunte relativamente alle sanzioni economiche contro la Russia e le politiche energetiche italiane. Soprattutto, sul proseguo del sostegno alla resistenza ucraina.

Questo evento è l’ennesima prova di come la tecnologia possa trasformarsi in un’arma non cinetica, invisibile ma devastante. Non servono carri armati per minacciare le istituzioni di un Paese: bastano server ospitati in nazioni che non adottano stringenti normative, bot ben programmati e qualche foto privata diffusa al momento giusto.

Piattaforma sessista o portale per “misure attive”?

Le immagini di personalità note, vere o generate dall’IA rese virali dai bot, ai milioni di utenti che le commentano sulle piattaforme social non importa se tali siano autentiche, e soprattutto, se siano state pubblicate all’insaputa dei soggetti raffigurati.

Questa vulnerabilità alla disinformazione deriva dalla dipendenza delle persone da scorciatoie mentali durante i periodi di stress sociale come quello attuale. Soprattutto se tali post, immagini e Deepfake video coinvolgono personaggi noti, specie se di stampo sessista, sono capaci di radicalizzare le posizioni ideologiche, politiche o religiose: scenari che facilitano la diffusione e l’accettazione della disinformazione. I contenuti sensazionalistici sessualmente ed emotivamente carichi, catturano più attenzione e vengono condivisi più frequentemente sui social media.

L’auspicio è che le indagini in corso riescano a chiarire se Phica.net sia semplicemente un portale di personaggi misogeni, depravati e sessualmente repressi, oppure se quanto trapelato finora rappresenti solo la punta dell’iceberg di un’operazione di influenza maligna da parte di attori statali.

Lo scenario sul quale gli investigatori stanno cercando di fare luce non verrà certamente sottovalutato, perché non si tratta soltanto di violazioni della privacy, ma anche di individuare se qualcuno degli autori/gestori o degli utenti iscritti faccia parte del network della propaganda russa governato dall’FSB, che alimenta l’istigazione all’odio e al vilipendio di cariche dello Stato italiano.

La disinformazione generata attraverso la manipolazione e l’utilizzo improprio dell’intelligenza artificiale rappresenta un asset strategico delle “misure attive” russe e sta producendo danni reali, ostacolando gli sforzi di risposta delle opinioni pubbliche europee ai conflitti in corso in Ucraina e Medio Oriente.

Le motivazioni che spingono le persone a creare, accettare e diffondere disinformazione attraverso contenuti di tipo sessuale sono complesse e diversificate. La teoria dell’autodeterminazione classifica le motivazioni in intrinseche – legate all’interesse o al piacere intrinseco nel creare e condividere – ed estrinseche, che invece implicano risultati come il guadagno finanziario o la pubblicità.

Le persone possono diffondere disinformazione perché la ritengono importante, perché hanno una ridotta capacità decisionale, perché diffidano da altre fonti di informazione o perché vogliono colpire, delegittimare, influenzare o favorire qualcuno o qualche organizzazione presa come obiettivo.

D’altro canto, l’accettazione della disinformazione può essere influenzata da una ridotta capacità di analizzare le informazioni, da affiliazioni politiche, da convinzioni fisse e dal fondamentalismo religioso.

La creazione di disinformazione prodotta da attori statali, invece, può essere motivata da fattori strategici: vantaggi politici, commerciali e militari, oppure fattori religiosi, e soprattutto l’intento di influenzare e danneggiare i competitor e/o i nemici.

La disinformazione attacca i singoli ma danneggia le istituzioni democratiche

I danni causati dalla disinformazione e dalla cattiva informazione possono avere diversi livelli di gravità e possono essere classificati in danni diretti, indiretti, a breve e a lungo termine.

Possono assumere molte forme, tra cui minacciare la vita delle persone, il reddito, il senso di sicurezza e le reti di protezione.

Nell’attuale contesto geopolitico, avere accesso a informazioni affidabili su pericoli e minacce è fondamentale. La disinformazione, combinata con una raccolta, un’elaborazione e una comprensione inadeguata delle informazioni, può causare un aumento dell’instabilità politica di un Paese. La disinformazione colpisce in modo sproporzionato le popolazioni vulnerabili.

Quando gli individui ricevono informazioni su rischi e minacce, di solito le verificano attraverso reti verticali (governo, agenzie di gestione delle emergenze e media autorevoli) e orizzontali (amici, familiari e vicini).

E con il ruolo che ha assunto l’intelligenza artificiale di generare o manipolare immagini, distinguere tra informazioni reali e generate dall’intelligenza artificiale diventerà più difficile e richiederà adeguate risorse.

Contrastare la disinformazione

La realtà rivela notevoli lacune nelle competenze e nelle strategie che le istituzioni devono affrontare per contrastare la disinformazione. L’individuazione, la verifica e la mitigazione della creazione, della condivisione e dell’accettazione della disinformazione richiedono sforzi coordinati tra politica, tecnologia e coinvolgimento pubblico:

  1. Promuovere una cultura di consapevolezza critica: è essenziale educare il pubblico, in particolare le giovani generazioni, sui pericoli della disinformazione e dei contenuti a scopo sessuale, soprattutto se utilizzano immagini dei propri cari minorenni, pubblicati online. Campagne di alfabetizzazione mediatica, programmi scolastici e workshop comunitari possono fornire alle persone le competenze per l’utilizzo delle piattaforme social, per mettere in discussione le fonti, verificare le informazioni e riconoscere la manipolazione.
  2. Impedire che la disinformazione visiva eroda la fiducia del pubblico. Ciò potrebbe includere disclaimer obbligatori, supervisione editoriale e tracciamento trasparente della provenienza dei contenuti pubblicati.
  3. Rendere obbligatorio e rafforzare il fact-checking e l’analisi dei metadati delle piattaforme che operano nella UE, soprattutto per quanto riguarda la gestione delle emergenze. Le piattaforme social e le testate giornalistiche dovrebbero assicurare un fact-checking rapido e su larga scala. Imporre alle piattaforme di segnalare, declassare o rimuovere contenuti palesemente falsi, che incitano alla violenza politica, sessuale e psicologica può limitare la diffusione virale della disinformazione. È necessario sviluppare strategie di intervento per sensibilizzare le persone sulle informazioni che incontrano sui social media.
  4. Conseguenze legali chiare: considerare già reato la creazione e la diffusione intenzionale di informazioni false. La pubblicità e l’applicazione di tali disposizioni possono fungere da deterrente, in particolare per le campagne di disinformazione deliberate.

Costruire misure di salvaguardia attraverso l’istruzione, le politiche, la verifica dei fatti e la responsabilizzazione è essenziale per garantire che l’intelligenza artificiale diventi uno strumento di resilienza piuttosto che un motore di caos.

Comprendere la guerra ibrida

Se c’è ancora qualcuno che crede che la guerra sia soltanto quella cinetica in Ucraina o a Gaza e che  in Europa viviamo in tempi di pace, dia un’occhiata al recente report dell’International Institute for Strategic Studies sulle operazioni di sabotaggio russe contro le infrastrutture critiche in Europa 2018-2025 che sono diventate pubbliche: sì, non siamo in guerra. Tuttavia, illudersi che la guerra convenzionale della Russia contro Kyiv sia solo un problema degli ucraini è quantomeno ingenuo.

Grazie alla NATO non veniamo attaccati da missili o droni, ma la “guerra ibrida” contro l’Europa portata avanti dalla Russia è in corso e ha quattro obiettivi principali: provocare danni economici, delegittimare le istituzioni democratiche, sconvolgere la popolazione e minare la solidarietà europea e euro-atlantica.

La domanda non è più se la Russia conduca una guerra ibrida in Italia, ma fino a che punto strumenti come Phica.net possano incidere sulla nostra vita politica. E soprattutto: se l’Italia è pronta ad affrontare un conflitto che non si combatte solo con le armi tradizionali, ma anche con la disinformazione, la cancellazione dei diritti civili, la violenza di genere e la delegittimazione delle nostre istituzioni.

Torna su