skip to Main Content

Ai Forensics Ue Threads Chat Facebook Instagram Whatsapp Dma

Zuckerberg russa della grossa e Putin sotto europee ne approfitta? Report anti Meta

Un report di AI Forensics denuncia Meta alla Commissione Ue. Ecco perché

Secondo Paul Bouchaud di AI Forensics, organizzazione no-profit europea che indaga i danni causati dagli algoritmi delle principali piattaforme tecnologiche, “Il fallimento sistemico di Meta nel moderare gli annunci politici è profondamente preoccupante, soprattutto con le elezioni all’orizzonte”.

L’ACCUSA DI AI FORENSICS

Per AI Forensics la propaganda filo-russa starebbe sfruttando lo scarso impegno di Meta nel moderare gli interventi a carattere politico, in particolar modo quelli propagandistici, sui suoi social in Europa, causando un “serio allarme” sull’integrità elezioni di giugno. “Nonostante i ripetuti avvertimenti, l’azienda ha riconosciuto il problema, rivendicando investimenti significativi nella sicurezza, ma ha trascurato di affrontarlo in modo efficace, sollevando dubbi sul suo impegno a favore dell’integrità democratica”, spiega sempre Bouchaud.

Lo studio di AI Forensics – che ha esaminato la Ads Library di Meta in 16 Paesi dell’Ue, tra cui l’Italia dall’agosto 2023 – sostiene che le maglie di sorveglianza siano eccessivamente ampie: meno del 10% degli annunci politici non dichiarati sarebbe moderato da Meta. Inoltre, il 60% delle inserzioni moderate dalla piattaforma non rispetta comunque le linee guida di moderazione sugli annunci politici previste dell’azienda di Mark Zuckerberg.

Per ciò che concerne la ricerca di “campagne coordinate” –  vale a dire i casi in cui più inserzionisti pubblicano lo stesso contenuto su una pluralità di pagine – la ricerca di AI Forensics ha scoperto una rete di 3.826 pagine che diffondono propaganda filo-russa. I vincoli eppure ci sarebbero: secondo i termini di servizio di Meta, agli inserzionisti è consentito pubblicare inserzioni politiche solo nel proprio Paese di residenza, previa verifica di un documento d’identità e accompagnate dal disclaimer “Paid for by”.

LE CAMPAGNE FILORUSSE IN FRANCIA E IN GERMANIA

Il rischio è che oscuri finanziatori macchinino per indebolire le politiche filo-atlantiche della Ue, specie sotto europee. In Francia e Germania queste campagne hanno raggiunto 38 milioni di utenti, tra agosto 2023 e marzo 2024, con meno del 20% degli annunci politici moderati da Meta e spesso comunque solo dopo che il loro contenuto è già stato diffuso sul Web.

È stato per esempio registrato che dopo che gli Stati Uniti hanno annunciato 1 miliardo di dollari in aiuti all’Ucraina a settembre, sono germinati post rilevati dallo studio di Ai Forensics (arrivati a oltre 130.000 account francesi) nei quali si affermava che gli Usa starebbero soffiando sul fuoco della guerra per aumentare la vendita di armi. Quando la Germania ha aumentato gli aiuti militari a Kiev a novembre, 463 post hanno criticato il sostegno del governo tedesco all’Ucraina, raggiungendo 1,6 milioni di account.

L’ONG CHIEDE ALLA UE DI AGIRE CONTRO META

Per fortuna almeno dal lato comunitario qualcosa sembra essersi mosso. “I nuovi requisiti di trasparenza per le piattaforme nell’Ue si stanno rivelando efficaci: senza quelle regole, che Meta ha diligentemente implementato, non avremmo avuto accesso ai dati che ci hanno permesso di mettere in luce questa operazione”, ha spiegato Marc Faddoul, direttore di AI Forensics.

La Ong si è quindi appellata alla Commissione europea, “perché avvii una procedura di infrazione contro Meta per la sua inerzia contro le operazioni politiche coordinate russe” nonché a Meta stessa affinché “agisca immediatamente contro queste reti e monitori in modo proattivo operazioni simili durante le elezioni, nonché a rafforzare la moderazione della pubblicità politica”.

COS’È E COSA FA AI FORENSICS

AI Forensics è un’organizzazione europea senza scopo di lucro che, scrive di sé “indaga su algoritmi influenti e poco trasparenti. Riteniamo responsabili le principali piattaforme tecnologiche conducendo indagini tecniche indipendenti e di alto profilo per scoprire e denunciare i danni causati dai loro algoritmi.”

Ne fanno parte: Riccardo Angius, Claudio Agosti, Ulrik A. Halmoy, Natalie Kerby, Salvatore Romano (capo della ricerca), Miazia Schueler, Sonia Tabti, Katya Viadziorchyk, il già citato Paul Bouchaud, Raziye Buse Cetin, Alvaro De Frutos.

Tra ii partner dell’organizzazione le fondazioni Limelight, Open Society, Luminate, Sidnfonds, Civitates, il fondo Digital Freedom Fund, NGI e Mozzilla.

Back To Top