skip to Main Content

You Tube

La guerra di YouTube contro la disinformazione su Covid e vaccini

Ecco come la piattaforma video di Google sta contrastando le fake news su pandemia, vaccini e non solo

 

Da quando è iniziata la pandemia rimossi da YouTube più 850mila video per violazione della policy su disinformazione e Covid, di cui 30mila nell’ultimo trimestre del 2020 per violazione alla policy relativa ai vaccini.

La piattaforma video di Google è aperta ma le informazioni devono essere utili e di qualità, soprattutto quando si tratta di pandemia e crisi sanitaria. Ecco perché la responsabilità è una priorità per YouTube.

500 ore di contenuti caricati al minuto, un pubblico mondiale, con opportunità diretta di interazione tra i creatori di contenuti e gli utenti, l’unico modo di trovare un giusto bilanciamento tra la piattaforma aperta e le possibili conseguenze per i creatori di contenuti è avere chiare policy, ha spiegato Marco Pancini, Director Public Policy EMEA di YouTube.

Ovvero ferme regole di condotta che fissano quello che può essere caricato e quello che non può essere caricato.

Le policy sulla disinformazione che esistevano già prima del Covid-19 oggi seguono le attività delle autorità mondiali e locali.

Inoltre in Europa tutto si svolge in collaborazione e sotto l’impulso delle istituzioni europee che assistono la piattaforma. L’obiettivo è assicurare agli utenti un’esperienza sicura.

Il compito di YouTube è fare in modo infatti, alla luce di queste policy, che qualsiasi segnalazione giunga in violazione di queste regole sia presa in considerazione e attentamente analizzata.

Tutti i dettagli.

I QUATTRO PILASTRI DELLA RESPONSABILITÀ PER YOUTUBE

Le quattro azioni principali che YouTube ha intrapreso in relazione ai contenuti si possono riassumere con le “quattro R”, legate al tema della responsabilità: remobe, raise, reduce e reward. Remove, per rimuovere i contenuti in violazione delle policy di YouTube. Raise perché l’idea è di dare priorità e precedenza alle informazioni autorevoli, a maggior ragione in tempi di pandemia. Reduce, ridurre la diffusione di contenuti che, pur non oltrepassando le policy, si avvicinano molto alla soglia delle linee guida. E infine reward, ovvero ricompensare gli utenti che portano un contributo positivo alla community.

Secondo Pancini “se immaginiamo il limite della policy come quello che è accettato e quello che non è accettato, la soglia quando si tratta di monetizzazione è ancora più alta. Vogliamo fare in modo che i contenuti possano monetizzare soltanto se apportano un valore positivo sia alla community sia agli investitori pubblicitari”.

AI TEMPI DI COVID

Con l’affermarsi del Covid, YouTube ha introdotto funzionalità aggiuntive per garantire alle persone informazioni accurate e autorevoli.

Quest’ultime fornite da fonti istituzionali: come l’Oms, il ministero della Salute in Italia e le varie autorità sanitarie nei paesi in cui opera la piattaforma.

In questo modo le autorità ha avuto l’opportunità aggiuntiva di comunicare direttamente con l’audience di YouTube.

Grazie a questi pannelli informativi, la piattaforma video di Google ha fornito 400 miliardi di impressions in tutto il mondo alle autorità sanitarie. Il riquadro relativo al coronavirus è risultato quello più visto in assoluto.

Dal 2018 YouTube ha lanciato un Tranparency Report in cui ogni trimestre si pubblicano i dati relativi ai contenuti rimossi, perché contrari alle policy della piattaforma o alla legge.

Oltre a quella quantitativa, la piattaforma ha aggiunto una dimensione qualitativa: per questo il team di YouTube ha realizzato una nuova metrica, il tasso di visualizzazioni inappropriate (Vvr).

Questa metrica può aiutare a comprendere, non solo quanti contenuti sono rimossi, ma anche con quale frequenza gli utenti di YouTube sono stati esposti a contenuti non in linea con le policy.

Oltre a rimuovere il contenuto non in linea con la policy della piattaforma, è importante capire quante persone ha raggiunto quel contenuto. Da quando si è iniziato a monitorare il tasso Vvr si è registrata una diminuzione del 70% dell’esposizione a contenuti contrari alle regole di condotta.

TRE FONTI DI SEGNALAZIONE DEI CONTENUTI POTENZIALMENTE ILLECITI

Ma come scatta il controllo sui contenuti che potenzialmente violano le policy di YouTube? Avviene in tre modi. Nel primo caso un utente segnala attraverso un tool il contenuto ritenuto illecito. Nel secondo caso la segnalazione arriva tramite trusted flaggers e autorità che collaborano con YouTube. Queste in particolare sono di altissima qualità in quanto la segnalazione giunge da esperti. La terza fonte di segnalazione è quella attraverso strumenti di machine learning, algoritmi che si basano sulle prime due fonti (segnalazioni dagli utenti e dalle trusted flaggers).

Nell’ultimo periodo, YouTube è stato in grado di identificare il 94% di contenuti in violazione delle policy attraverso i sistemi automatici di segnalazione. E il 75% di questi sono stati rimossi prima che i singoli video superassero le 10 visualizzazioni.

NORME SULLA DISINFORMAZIONE IN AMBITO MEDICO

Anche prima del Covid, YouTube applicava la stessa policy in merito ai contenuti sui vaccini. La piattaforma ha adattato così la sua policy alle linee guida dettate dalle autorità sanitarie. Pertanto, la piattaforma video rimuove contenuti che sostengono tesi su Covid-19 e vaccini che contraddicono il parere di esperti come le autorità sanitarie locali o l’Oms.

Per esempio, Pancini ha sottolineato come sia stato fondamentale seguire il dibattito sorto intorno al Covid in particolare nel caso del collegamento fatto tra il 5G e la pandemia, due eventi non relazionabili con nessuna informazione scientifica a conferma.

RIGUARDO AGLI ANNUNCI

La piattaforma non consente annunci che promuovono contenuti anti-vax, inclusi annunci che scoraggiono gli utenti a ottenere un vaccino anti-Covid.

Inoltre, i contenuti che contraddicono l’opinione degli esperti delle autorità sanitarie locali non possono essere monetizzati sulla piattaforma.

Ma c’è un’eccezione. Sono consentiti infatti i video se è chiaro che intendo essere educativi, documentaristici, scientifici o artistici (Edsa). Questa norma si applica a video, descrizione dei video commenti, live streaming e qualsiasi altro prodotto o funzione di YouTube.

IL CONDICE DI CONDOTTA DELL’UE: “TACKLING COVID-19 DISINFORMATION”

Il lavoro di Youtube contro la disinformazione si inserisce anche nell’ambito della collaborazione con le istituzioni europee.

All’epoca delle elezioni europee è nato il codice di condotta dell’Ue sulla disinformazione, frutto della collaborazione tra Commissione europea, le piattaforme online come Facebook, Google, Microsoft, Twitter e TikTok e società civile finalizzato alla realizzazione di linee guida per poter offrire comunicazione politica sulle piattaforme online in linea con criteri specifici.

Con lo scoppio della pandemia, le istituzioni di Bruxelles hanno incoraggiato le piattaforme online a contribuire alla lotta contro le fake news e altri tentativi di disinformazione rimuovendo i contenuti illegali o falsi. Con l’avvio delle campagne di vaccinazione in tutta l’Ue si sono intensificati gli sforzi per contrastare la disinformazione sui vaccini contro la COVID-19. YouTube si inserisce dunque tra le piattaforme online firmatarie del codice di buone pratiche sulla disinformazione riferiscono periodicamente alla Commissione europea in merito alle loro azioni e misure volte a limitare la disinformazione.

Back To Top