skip to Main Content

Google Agcom Youtube Amazon Videogame Wojcicki

Ecco come YouTube pensa di bloccare i video complottistici grazie a Wikipedia

In America lo chiamano “Catch 22”, dal romanzo di Joseph Heller, per indicare una situazione priva di via di uscita a causa della natura contraddittoria delle regole esistenti. YouTube (come tutti i grandi social network) c’è cascata dentro con tutti e due i piedi: la piattaforma video di Google, fatta di contenuti generati dagli utenti…

In America lo chiamano “Catch 22”, dal romanzo di Joseph Heller, per indicare una situazione priva di via di uscita a causa della natura contraddittoria delle regole esistenti. YouTube (come tutti i grandi social network) c’è cascata dentro con tutti e due i piedi: la piattaforma video di Google, fatta di contenuti generati dagli utenti e algoritmi disegnati per moltiplicare click e pubblicità, è diventata in alcuni casi la tribuna da cui estremisti e complottisti perorano la loro causa. YouTube ha pensato a un rimedio: dei link a Wikipedia per sfatare le notizie false. Brava Google ma non basta, dicono gli esperti.

I “SUGGERIMENTI” DELLA WOJCICKI

“Quando ci sono video che rappresentano teorie complottiste – usiamo una lista di teorie del genere messa insieme da Wikipedia – abbiamo deciso che mostreremo un link a articoli di Wikipedia che contengono informazioni su quell’evento”, ha dichiato la Ceo di YouTube Susan Wojcicki intervenuta nei giorni scorsi all’SXSW Interactive festival in Texas.
La Wojcicki li ha definiti “information cues”, suggerimenti di link a informazioni accreditate sul dato tema, al momento previsti solo per le teorie complottiste che raccolgono più visualizzazioni.

La Ceo ha dovuto fornire una risposta dopo gli attacchi ricevuti da YouTube a febbraio quando, a poche ore dalla strage di Parkland, in Florida, era schizzato fra i trending video un filmato che sosteneva che uno dei sopravvissuti era un cosiddetto “crisis actor,” termine che indica false vittime di false tragedie assunte per esercitazioni militari o delle forze dell’ordine.Dopo 200.000 views (e diffusione virale anche su Facebook e Twitter), YouTube ha rimosso il video.

L’impegno della piattaforma video di Google contro le teorie complottiste piace per l’intenzione, ma non convince nel metodo. Link a Wikipedia? Non è detto che l’utente li clicchi. E potrebbero essere completamente inadeguati sulle notizie di attualità, non presenti su Wikipedia o comunque con evoluzioni impreviste e immediate.  C’è di più: all’indomani del video su Parkland gli esperti hanno portato alla luce il fatto che le teorie complottiste, come tutte le fake news o i contenuti violenti, si avvalgono su YouTube di un’ecosistema che si auto-rafforza perché gli algoritmi di ricerca ci presentano tutti i contenuti con attinenza con ciò che cerchiamo o guardiamo; i video sono interconnessi per moltiplicare le views (anche delle pubblicità). YouTube, come tutti i social network, è vittima del suo stesso sistema, ha sottolineato Jonathan Albright, direttore della ricerca del Tow Center for Digital Journalism della Columbia University che studia la disinformazione su YouTube da anni: è YouTube che ci suggerisce che cosa guardare in base a ciò che già guardiamo.
Il sistema dei contenuti “Consigliati per te” e “Prossimo video” con riproduzione automatica è stato creato non per garantire all’utente un’informazione completa e corretta ma per fargli consumare contenuti il più possibile. Inoltre, YouTube deve ancora implementare regole chiare per il caricamento dei contenuti: ci sono delle Community Guidelines ma non è facile, su una piattaforma da 1,5 miliardi di utenti attivi mensili, fornire linee guida su ciò che è lecito inserire e che cosa è vietato.  Il paradosso di YouTube è lo stesso in cui si dibatte Facebook: gran parte della circolazione di notizie non corrette si deve agli algoritmi del social che moltiplicano e diffondono i contenuti: non si tratta di fornire link a fonti autorevoli o accreditate, ma di “demonetizzare i video offensivi” colpendo la loro capacità di generare guadagno dalle visualizzazioni.

L’ALLARME DI BERNERS-LEE

Non stupisce che proprio nei giorni il cosiddetto “padre del web”, Tim Berners-Lee, abbia scritto che la sua creazione è in pericolo a causa dello strapotere delle piattaforme come Google e Facebook. “Quello che era una ricca selezione di siti e blog è stato compresso sotto lo schiacciante peso di poche piattaforme dominanti”, ha detto lo scienziato britannico. “Questa concentrazione del potere permette a un ristretto gruppo di controllare quali idee e opinioni vengono visualizzate e condivise”; inoltre, il fatto che il potere sia concentrato nelle mani di pochi colossi ha reso possibile “trasformare il web in un’arma di proporzioni globali. Negli ultimi anni abbiamo visto teorie complottiste diffondersi sui social media, account fake su Twitter e Facebook che infiammano le tensioni sociali, attori esterni che interferiscono sulle elezioni democratiche, criminali che mettono a segno furti massicci di dati personali”. Serve un quadro regolatorio che tenga conto degli obiettivi di utilità sociale del web, secondo il padre del web, e il compito di supervisione non può essere affidato ai colossi di Internet, che si basano sul profitto e sfruttano i dati degli utenti per la pubblicità: occorre bilanciare gli interessi delle imprese con quelle dei cittadini online.

MILIARDI DI UTENTI, MILIONI DI MODERATORI?

La dimensione dei colossi social è il primo ostacolo al monitoraggio dei contenuti e alla valutazione di eventuali violazioni, ha sottolineato Dipayan Ghosh, ex consulente di Facebook su privacy e public policy e fellow del think tank New America. (che ha più di 2 miliardi di utenti attivi) e YouTube impiegano dei moderatori in carne ed ossa, che si affiancano agli algoritmi, per scandagliare le loro piattaforme in cerca di contenuti inappropriati, ma, a meno che non assumano milioni di persone in tutto il mondo per vigilare 24 ore su 24 sui miliardi di contenuti che vengono postati e condivisi, non potranno svolgere una vigilanza efficace, sostiene Ghosn; gli stessi algoritmi di controllo hanno numerose falle, nonostante i progressi nell’intelligenza artificiale: nel caso del video sulla strage di Parkland, il software non ha saputo distinguere tra i contenuti tendenziosi e i commenti di utenti indignati. Senza contare che la supervisione cammina a volte su un sottile confine al di là del quale c’è la violazione della libertà di espressione e la censura. Uscire dal Catch 22 non sarà per niente facile.

Back To Top