Skip to content

Threads Meta Moderazione

Perché Meta cazzia la moderazione dei post su Threads

Primo post censurato dai moderatori su Threads, l'app di microbloggling del gruppo social di Mark Zuckerbeg: sulla vicenda interviene il comitato di vigilanza di Meta chiedendo chiarezza sulle modalità di moderazione dei contenuti

Un “Muori” rivolto a un primo ministro sui social è “hate speech”, quindi censurabile in base alle regole di Meta su violenza e incitamento all’odio sulla piattaforma, oppure no in quanto mero lessico retorico?

È su questo che si è interrogato il Meta Oversight Board, ovvero il comitato di vigilanza di Meta, un organo indipendente che monitora l’andamento dei social del gruppo fondato da Mark Zuckerberg, chiedendo alla società di chiarire le regole dietro la moderazione dei post potenzialmente offensivi su Threads, la nuova piattaforma di Meta rivale di Twitter/X.

La mossa arriva infatti a seguito di un utente che ha criticato il primo ministro giapponese, Fumio Kishida, commentando un articolo sulle accuse di evasione fiscale, scrivendo l’equivalente letterale di “muori”. Da qui l’intervenuto dei moderatori del social network Threads che, considerata l’espressione offensiva, l’hanno quindi censurata. L’utente ha fatto ricorso e, dopo il secondo respingimento, si è rivolto al comitato.

L’Oversight Board di Meta ha valutato quindi il suo primo caso su Threads e ha annullato la decisione iniziale e il primo appello dell’azienda. In particolare, la decisione del colosso di Menlo Park ha sollevato interrogativi sulla capacità di moderazione dei contenuti da parte di Meta in modo equo e coerente, soprattutto quando si tratta di linguaggi e culture differenti, sulle sue piattaforme, non solo Threads.

Tutti i dettagli.

IL CASO DEL POST SU THREADS RIVOLTO AL PREMIER GIAPPONESE

Il comitato di vigilanza di Meta ha annullato sia la decisione iniziale che quella di primo appello prese dall’azienda in merito a un post controverso sulla sua app Threads.

Il post di Threads controverso risale a gennaio 2024, incentrato su presunte irregolarità nella raccolta fondi legate al partito del primo ministro giapponese Fumio Kishida. L’utente ha commentato con un’espressione che in inglese si traduce come “drop dead/muori”.

RIMOSSO DAI MODERATORI

Come ricostruisce Engadget, il post è passato in gran parte inosservato, senza Mi piace. Ma qualcuno lo ha segnalato in base alle regole di Meta su bullismo e molestie. Dopo tre settimane, uno dei revisori di Meta ha stabilito che invece violava le regole su violenza e incitamento all’odio. L’utente ha fatto ricorso e un altro revisore ha concordato con il primo che violava la politica. Un altro ricorso ha portato la questione al Meta Oversight Board, che ha accettato il caso e ha annullato le decisioni dei due revisori umani che lo avevano rimosso.

COSA HA STABILITO IL COMITATO DI VIGILANZA DI META SULLA MODERAZIONE DEL POST CENSURATO SU THREADS

Lo scorso maggio il comitato ha concluso infatti che la rimozione non era “né necessaria né coerente con le responsabilità di Meta in materia di diritti umani”, aggiungendo che la frase era usata in senso figurato piuttosto che come minaccia letterale di violenza. Inoltre, il Meta Oversight Board ha precisato che “Era improbabile che causasse danni”.  “In questo caso, la minaccia contro un leader politico era intesa come critica politica non letterale che richiamava l’attenzione sulla presunta corruzione, usando un linguaggio forte, il che non è insolito sui social media giapponesi”. Il comitato ha anche affermato che, nonostante parlassero giapponese e comprendessero i contenuti locali, i moderatori che hanno rimosso il post erano “in errore”.

Questa settimana, il Consiglio di vigilanza di Meta è tornato sul caso ribadendo quanto affermato in precedenza, e raccomandando a Meta di: “aggiornare la sua politica sulla violenza e l’incitamento per definire chiaramente le “persone ad alto rischio”, come i leader politici, che affrontano un rischio maggiore di violenza; fornire ai revisori una guida migliore sulla gestione di frasi come “morte a” quando vengono utilizzate casualmente o non seriamente, tenendo conto del contesto e della lingua locali e aggiungere un collegamento nella politica sulla violenza e l’incitamento alla definizione di personaggi pubblici già fornita nelle regole sul bullismo e le molestie.”

Infine, il Consiglio “incoraggia Meta ad apportare queste modifiche per proteggere la libertà di espressione garantendo al contempo la sicurezza” conclude il Meta Oversight Board.

NECESSITÀ DI RIVEDERE LE REGOLE DI MODERAZIONE DA PARTE DI META, NON SOLO SU THREDS

La raccomandazione è quella già espressa nel 2022, quando il comitato aveva sottolineato che frasi simili “sono generalmente consentite, tranne quando dirette a individui ad alto rischio”. Inoltre, il consiglio ha raccomandato a Meta di chiarire in che modo la politica differisce per “personaggi pubblici” rispetto a “persone ad alto rischio”. Evidenzia la confusione sul perché le minacce contro personaggi pubblici vengano rimosse solo quando “credibili”. Al contrario, quelle contro altri sono eliminate “indipendentemente dalla credibilità”.

IL RUOLO DEL COMITATO DI VIGILANZA DI META

In attesa di conoscere le prossime mosse del colosso di Menlo Park sulla questione, TechCrunch ricorda che, “Progettato come un comitato di appello indipendente che ascolta i casi e poi prende decisioni di moderazione dei contenuti che creano precedenti, il Meta Oversight Board  fino ad oggi ha deciso su casi come il divieto di Donald Trump da parte di Facebook, la disinformazione sul Covid-19, la rimozione di foto di cancro al seno e altro ancora”.

Il Consiglio afferma di aver selezionato questo caso per esaminare le politiche di moderazione dei contenuti di Meta e l’applicazione delle pratiche sui contenuti politici su Threads. Si tratta di una mossa tempestiva, considerando che è un anno elettorale e che Meta ha dichiarato che non avrebbe raccomandato attivamente contenuti politici su Instagram o Threads, come impostazione predefinita.

Ed è effettivamente un periodo “caldo” per le policy di moderazione dei contenuti da parte dei social network, in particolar modo dopo le recenti dichiarazioni del patron del colosso social Mark Zuckerberg sulla censura sulla piattaforma Facebook.

LE AMMISSIONI DI MR ZUCKERBERG

A fine agosto il presidente e ceo della società di social media Meta, ha ammesso in una lettera alla commissione Giustizia della Camera Usa che i suoi team sono stati “pressati” dalla Casa Bianca di Biden per censurare alcuni contenuti sulla pandemia di Covid-19 su Facebook.

“Nel 2021, alti funzionari dell’amministrazione Biden, tra cui la Casa Bianca, hanno ripetutamente fatto pressione sui nostri team per mesi affinché censurassero determinati contenuti sul Covid 19, tra cui umorismo e satira, e hanno espresso molta frustrazione nei confronti dei nostri team quando non eravamo d’accordo”, ha affermato Zuckerberg. Nella sua lettera alla commissione giudiziaria, Zuckerberg ha affermato che la pressione che ha sentito nel 2021 era “sbagliata” e che è arrivato a “rimpiangere” che la sua azienda non sia stata più schietta.

“Come ho detto ai nostri team all’epoca, sono fermamente convinto che non dovremmo compromettere i nostri standard di contenuto a causa delle pressioni di qualsiasi amministrazione in entrambe le direzioni, e siamo pronti a reagire se qualcosa del genere dovesse accadere di nuovo”, ha concluso Zuckerberg.

 

Torna su