skip to Main Content

Meta Novi

Come l’algoritmo di Facebook sta sfuggendo al controllo dei suoi creatori

Tutto quello che sta emergendo dalla lettura dei "Facebook Files". L'approfondimento di Le Monde

Nei documenti interni dell’azienda, i suoi ingegneri confessano la loro incomprensione di fronte a un codice informatico dagli effetti imprevisti, che rende il social network una macchina complessa e difficile da controllare.

Questa è forse la sensazione principale che emerge leggendo i “Facebook Files”. Tra queste migliaia di pagine di documenti interni di Facebook, recuperati da Frances Haugen, un ex dipendente, e trasmessi da una fonte parlamentare americana a diversi media, tra cui Le Monde, molti passaggi sembrano indicare che Facebook non capisce più, o fraintende, cosa fanno i suoi stessi algoritmi. E che la sua rete sociale è diventata una macchina difficile da controllare.

Questo è in particolare il caso di un algoritmo cruciale, responsabile della “classifica” dei messaggi che appaiono nel News Feed degli utenti: Facebook utilizza una moltitudine di segnali, dal più semplice – il numero di persone iscritte a una pagina – al più complesso – l’interesse che gli “amici” di un utente hanno mostrato in un argomento – al fine di assegnare un “punteggio” a un messaggio. Più alto è il punteggio, più è probabile che appaia nel news feed.

Tuttavia, con il passare del tempo e l’aggiunta di nuovi segnali da parte degli ingegneri del social network, il “punteggio” medio di un post è esploso. In un documento senza data, un analista di Facebook ha fatto alcuni calcoli e ha scoperto che per alcuni contenuti, il punteggio “può superare 1 miliardo”. Questo ha la conseguenza diretta di rendere inutilizzabili molti strumenti di moderazione. Questi ultimi riducono il punteggio di certi messaggi problematici del 20%, 30% o 50%, per evitare che si diffondano troppo. Ma per i contenuti più votati, il punteggio è così alto che dimezzarlo non impedisce che continui ad essere visualizzato. “Alcuni di questi contenuti rimarrebbero nella prima posizione anche se il loro punteggio fosse abbassato del 90%”, lamenta l’autore del documento.

SISTEMA COMPLESSO SENZA UNA “VISIONE UNIFICATA”

Questo problema non è affatto il risultato di una politica intenzionale secondo cui certi post dovrebbero essere immuni da strumenti di moderazione automatica. È semplicemente uno dei numerosi effetti collaterali causati dalle centinaia di modifiche agli algoritmi di Facebook nel corso degli anni, le cui conseguenze gli stessi ingegneri del social network sembrano incapaci di prevedere.

“Le diverse parti delle applicazioni di Facebook interagiscono tra loro in modi complessi” e ogni squadra sviluppa cambiamenti senza una “visione sistemica unificata”, lamenta la dipendente Mary Beth Hunzaker, in una lunga nota scritta in occasione della sua partenza da Facebook nell’agosto 2020. La conseguenza? “Un aumento del rischio di problemi facilitati o amplificati da interazioni impreviste tra funzioni o servizi della piattaforma”.

In numerose occasioni, gli impiegati hanno testimoniato in documenti interni la loro mancanza di comprensione del comportamento problematico nel loro codice informatico. In India, i video pornografici soft sono improvvisamente evidenziati nella scheda Guarda, senza che nessuno capisca perché. Negli Stati Uniti, gli ingegneri si stanno strappando i capelli per capire perché certi gruppi politici continuano ad essere raccomandati agli utenti quando non dovrebbero più esserlo.

“Ogni esperimento cambia la composizione del news feed in modi inaspettati”, nota un articolo del 2018. Due anni dopo, gli analisti di Facebook sono lieti di vedere che la quantità di contenuti che inducono odio sembra essere in netto calo nel News Feed, ma si preoccupano di spiegare perché. “Questo risultato potrebbe in teoria essere il risultato di uno o più cambiamenti all’algoritmo negli ultimi due mesi. In ultima analisi, può essere difficile determinare quali”, nota un documento.

Quando gli viene chiesto questo, Facebook ammette prontamente che i suoi algoritmi sono diventati strumenti molto complessi, ma si vanta di modificarli regolarmente per migliorarli. Anche se le conseguenze dei cambiamenti non sono sempre facili da prevedere, il social network assicura che i sondaggi che conduce regolarmente tra i suoi utenti gli permettono di rilevare rapidamente eventuali problemi importanti e, se necessario, di tornare indietro se un cambiamento si rivela troppo problematico.

“I PREGIUDIZI”

Questi problemi non derivano da una mancanza di competenza. Facebook assume alcuni dei migliori ingegneri del mondo. Né questi difetti sono specifici del social network: gli stessi effetti collaterali indesiderati si verificano “ogni volta che gli scienziati dei dati e gli ingegneri del software mescolano la personalizzazione dei contenuti con l’amplificazione algoritmica, come nel feed di Facebook, la scheda For You di TikTok o le raccomandazioni di YouTube”, scrive Roddy Lindsay, un ex ingegnere di Facebook, in un articolo pubblicato a giugno sul New York Times. E aggiunge:

“Questi algoritmi […] perpetuano i pregiudizi e influenzano la società in modi che i loro creatori comprendono a malapena. Facebook ha avuto quindici anni per dimostrare che gli algoritmi per la classificazione dei contenuti in base all’impegno [il numero di commenti, condivisioni…] possono essere progettati in modo responsabile; se non ci sono ancora riusciti, non ci riusciranno mai”.

E, come mostrano i documenti di Facebook, non è per mancanza di tentativi. Le analisi effettuate internamente gettano nuova luce sui molti cambiamenti, sia maggiori che minori, che Facebook ha fatto ai suoi vari algoritmi negli ultimi anni. A partire dal cruciale pivot del 2018, che mirava a portare in primo piano ciò che Facebook chiama “interazioni sociali significative” (MSI). Il progetto aveva un obiettivo chiaro: dare la priorità ai contenuti pubblicati da amici intimi, foto di famiglia e testi, a scapito dei contenuti politici e di quelli pubblicati dai media e dalle pagine “click-bait”, il cui consumo passivo era considerato poco utile dagli utenti di Internet.

Tuttavia, il cambiamento dell’MSI ha avuto, in parte, l’effetto opposto a quello voluto: come dimostrato da molteplici analisi successive condotte dai team di Facebook, ha favorito i contenuti divisivi. Questo in parte perché l’algoritmo modificato dava un peso enorme ai contenuti condivisi da amici e familiari, anche quando provenivano da pagine dubbie o politicamente impegnate. Di conseguenza, i deep reshares, contenuti ri-condivisi da amici di amici, hanno improvvisamente assunto una grande importanza nei News Feeds degli utenti, mentre allo stesso tempo sono, secondo le ricerche di Facebook, uno dei principali vettori di distribuzione per le pagine di estrema destra o di cospirazione.

Da allora, alla fine di aprile 2019, un’analisi effettuata all’interno del team “integrità”, incaricato di studiare e proporre soluzioni contro la disinformazione o i contenuti pericolosi in Facebook, ha stimato che una massiccia riduzione del peso di questi deep reshares permetterebbe di ridurre la visibilità dei messaggi di disinformazione dal 25% al 50%, a seconda del formato. Questo sarebbe “un modo efficace e neutrale per limitare i rischi posti dai contenuti più pericolosi [sulla politica o sulla salute]”, ha detto l’autore della proposta.

“Abbiamo altri strumenti per ridurre la visibilità di alcuni tipi di contenuti, come i messaggi di odio o le foto di nudo”, ha spiegato un portavoce di Facebook. La riduzione complessiva dei deep reshares è uno “strumento contundente, che colpisce anche i post positivi o innocui insieme al discorso eventualmente violento o provocatorio, quindi lo usiamo con discrezione”. Facebook lo ha recentemente implementato su base temporanea in Etiopia, Birmania, Stati Uniti e Sri Lanka.

UNA LUNGA LISTA DI PROVE ED ERRORI

I detrattori dell’azienda, tra cui Frances Haugen, l’accusano di privilegiare, nelle impostazioni della sua piattaforma, i dati relativi all’impegno degli utenti: attività, tempo trascorso, numero di like, condivisioni, ecc. Facebook ignorerebbe quindi in gran parte le conseguenze negative dei suoi cambiamenti di algoritmo. Nel 2020, per le elezioni presidenziali americane, l’azienda aveva messo in atto tutta una serie di misure preventive, che ha disattivato una volta terminate le elezioni – prima di riattivarne una parte il 6 gennaio, durante l’attacco al Campidoglio da parte dei sostenitori di Donald Trump.

Questo tira e molla è un segnale che l’azienda sta principalmente cercando di proteggere le sue statistiche di utilizzo, che sono cruciali per vendere pubblicità? Facebook nega con veemenza questo, e dice che a volte ha preso misure che hanno ridotto l’impegno quando necessario per la sicurezza dei suoi utenti. Nel 2018, il cambiamento dell’algoritmo aveva lo scopo di “dare priorità ai contenuti di amici e familiari e si basava su studi di esperti di benessere”, ha detto a Le Monde all’inizio di ottobre Monika Bickert, responsabile della politica dei contenuti di Facebook. E, come ci aspettavamo, questo cambiamento ha effettivamente ridotto la quantità di tempo trascorso sulla piattaforma, di 50 milioni di ore al giorno.

Più in generale, Facebook dice che concentrarsi sul “coinvolgimento” a tutti i costi sarebbe un’assurdità per l’azienda, poiché il suo interesse a lungo termine è che i suoi utenti – e gli inserzionisti – si sentano bene sulla piattaforma, per assicurarsi che restino. Tuttavia, la lunga lista di prove e cambiamenti suggerisce la complessità degli algoritmi che sono diventati difficili da padroneggiare, e le cui conseguenze non sono sempre immediatamente rilevabili. Nonostante i molti cambiamenti, i problemi rimangono.

Nel corso degli anni, le misure proposte dai membri del team “integrità” sembrano essere sempre più complesse, quando non aggirano semplicemente il problema suggerendo modifiche, non agli algoritmi, ma all’interfaccia. Per esempio, diversi documenti degli ultimi due anni suggeriscono di aggiungere elementi di “attrito” per incoraggiare gli utenti a condividere meno certi tipi di contenuti, per esempio obbligandoli a cliccare su un articolo prima di ripubblicarlo.

Un documento dell’aprile 2020 propone l’implementazione di uno “strumento interno di trasparenza per centralizzare l’assicurazione della qualità e il controllo delle retrocessioni dei contenuti nel news feed”, segno che, anche per i team che lavorano su questi temi, avere una visione trasversale dei cambiamenti fatti in azienda è difficile.

Alcuni dei cambiamenti più recenti sembrano addirittura avere un lato paradossale e quasi ironico: dall’inizio del 2021, Facebook ha condotto esperimenti “in 70 paesi” per visualizzare meno contenuti politici nei feed dei suoi utenti, e ha reso questo cambiamento permanente negli Stati Uniti e in Canada. “È una copia carbone di quello che stavano già dicendo nel 2018”, ride Katie Harbath, un’altra ex dipendente del social network che ha lasciato nel 2021 per fondare la propria azienda. “Ridurre il contenuto politico è stato uno dei motivi principali del cambiamento dell’algoritmo MSI: sembra davvero che stiamo girando in tondo”, si rammarica.

SEGRETEZZA INDUSTRIALE SULL’ALGORITMO DI FACEBOOK

Se una delle aziende più potenti del mondo sta fallendo nel raggiungere i propri obiettivi, potrebbe anche essere perché molte delle misure che Facebook ha messo in atto negli ultimi tre anni vanno direttamente contro, non tanto al suo modello di business, ma all’essenza stessa della sua piattaforma e degli algoritmi. Nel News Feed, come nelle raccomandazioni di pagine o gruppi da seguire, Facebook ha cercato soprattutto di costruire una macchina capace di amplificare, di rilevare i contenuti e gli account che susciteranno l’entusiasmo dei suoi utenti. Rendere più difficile la condivisione, nascondere o ridurre la visibilità dei contenuti che “funzionano” è fondamentalmente contrario alla missione primaria dell’algoritmo.

Questo è il motivo per cui i regolatori negli Stati Uniti e in Europa sono sempre più interessati a come funzionano gli algoritmi. Alcuni, come Frances Haugen e Roddy Lindsay, sono addirittura favorevoli a incoraggiare le piattaforme a tornare a una classificazione cronologica dei contenuti. Altri, tra cui Facebook, stanno già dicendo che il risultato sarebbe peggiore per l’utente perché gli algoritmi filtrano anche i contenuti dannosi…

Interrogato dai politici, Facebook non vuole ovviamente fornire informazioni dettagliate su questi software, che sono uno dei suoi principali segreti industriali. Ma il progetto di legge europea sui servizi digitali, attualmente in discussione a Bruxelles, prevede di richiedere ai social network di essere più trasparenti sui loro algoritmi e di permettere agli utenti di Internet di modificare i parametri dei sistemi di classificazione dei contenuti. Una delle sfide per i regolatori è quella di ottenere un accesso reale ai meccanismi interni di queste piattaforme, che sono stati opachi fino ad ora. Il testo prevede degli audit, ma il quadro dipinto dai documenti interni di Facebook potrebbe spingere i politici europei ad essere molto più esigenti.

 

(Estratto dalla rassegna stampa estera a cura di Epr Comunicazione)

Back To Top