Sul finire del 2023 erano state rese pubbliche comunicazioni interne a Meta nell’ambito di una causa contro la società avviata in Massachusetts dalle quali traspariva che la Big Tech avesse ignorato le evidenze sulla nocività dei contenuti veicolati via social per gli utenti più vulnerabili, ovvero i bambini e gli adolescenti, incapaci di filtrare con senso critico i messaggi che li bombardano ogni volta che navigano. In tutta risposta, è noto, all’inizio del 2024 Menlo Park ha introdotto nuove regole, per dimostrare che il tema le stesse a cuore. Il medesimo tema ora ha spinto YouTube, del gruppo Google – Alphabet, a variare il proprio algoritmo.
COME CAMBIA L’ALGORITMO DI YOUTUBE
Il responsabile globale della salute di YouTube, il dottor Garth Graham, ha dichiarato: “Quando un adolescente sta sviluppando pensieri su chi è e sui propri standard, il consumo ripetuto di contenuti con standard idealizzati che iniziano a formare uno standard interno irrealistico potrebbe portare alcuni a formare convinzioni negative su se stessi”.
Per questo, l’algoritmo alla base di YouTube – che come quello di Google, o dei social, anziché essere “intelligente” si limita a mostrare contenuti affini a quelli su cui passiamo più tempo così da trattenerci – smetterà di consigliare agli adolescenti video che idealizzano specifici livelli di fitness, caratteristiche fisiche e stili di vita, dopo che gli esperti hanno avvertito che tali contenuti potrebbero essere dannosi se visti ripetutamente.
La piattaforma continuerà a consentire ai giovani tra i 13 e i 17 anni di vedere tali video, anche perché la stessa YouTube ha specificato che siffatti contenuti non violano le sue linee guida, mentre potrebbe essere la loro visione ripetuta a compromettere il benessere di alcuni utenti. Semplicemente, non verranno più consigliati dall’algoritmo di YouTube che dunque derogherà al funzionamento classico, basato sulla continua proposizione di contenuti che sono piaciuti e hanno intrattenuto.
NORME SEMPRE PIU’ RESTRITTIVE E STATI SEMPRE PIU’ AGGUERRITI
Del resto le piattaforme devono fare i conti con pacchetti normativi restrittivi come il Children’s Online Privacy Protection Act americano, l’Online Safety Act britannico, il Bik+ comunitario (che si sta ulteriormente inasprendo) che espongono le loro condotte a cause dalle conseguenze assai incerte.
Nell’ottobre del 2023, 42 Stati Usa avevano trascinato in giudizio Meta sostenendo che Menlo Park abbia creato alcune specifiche funzionalità su Instagram e Facebook per spingere i giovani a restare sempre più a lungo sui social e a farli tornare continuamente, attraverso algoritmi, allarmi, notifiche e il cosiddetto scroll infinito.
Inoltre, la società avrebbe incluso funzionalità con un impatto negativo sulla salute mentale dei giovani, con il continuo paragone con gli altri e provocando la promozione del disformismo corporeo, con funzionalità come il “mi piace” o i filtri per le foto. Resta da capire però se per evitare tutto ciò basterà continuare a porre la spunta alla voce “sono maggiorenne” che di fatto rende superfluo ogni intervento a tutela dei minori.