Skip to content

maggiore età digitale meta

L’ultima inutile farsa di Meta sulla “maggiore età digitale”

Se i social fossero uno spazio sicuro non ci sarebbe bisogno della campagna per la “maggiore età digitale” lanciata da Meta, che è solo un altro modo per scaricare sui genitori la responsabilità di lasciar usare ai figli social troppo pericolosi. L'articolo di Stefano Feltri da Appunti

 

Se ascoltate podcast, sarà capitato anche a voi di sentire molto spesso una pubblicità di META, l’azienda che controlla gran parte della nostra vita digitale con Facebook, Instagram e WhatsApp.

META ci tiene a farci sapere che supporta l’idea di introdurre una “maggiore età digitale” a livello europeo per scaricare app come le sue.

La proposta è molto semplice, fin troppo: i genitori dovrebbero poter autorizzare con una forma di “parental control” i download di app da parte dei loro figli sotto i 16 anni.

Nel concreto, quando un ragazzino prova a scaricare Instagram o WhatsApp, il genitore riceve una notifica sul proprio dispositivo e può autorizzare o bloccare l’operazione. Tutto qui.

Stiamo parlando soltanto del primo download, cioè della possibilità per il minore di accedere alla app. Non di un’autorizzazione per le varie attività che poi il minore può fare sul social una volta che papà o mamma hanno dato il primo ok.

Questo filtro serve a qualcosa?

SENZA SCRUPOLI

L’obiettivo è allontanare da META l’accusa di essere un’azienda di “persone senza scrupoli”, Careless people, come da titolo del libro accusatorio dell’ex dirigente Sarah Wynn-Williams che l’azienda ha cercato di ostacolare in ogni modo.

Quel libro conferma quello che già sappiamo da molte inchieste giornalistiche, rivelazioni di ex dipendenti, audizioni in molti parlamenti nazionali: i social network sono pericolosi, in particolare per i più giovani, e le piattaforme digitali hanno sempre privilegiato il potenziale commerciale della profilazione algoritmica e delle raccomandazioni automatiche rispetto alla tutela degli utenti.

Da anni, ormai, META cerca di ripulirsi l’immagine, di rassicurare sul fatto che, ammesso che un problema specifico esista – e l’azienda di Mark Zuckerberg nega che esista – la piattaforma sa anche come risolverlo.

Nei mesi scorsi META ha lanciato gli account “teen”, cioè account specifici per Instagram che dovrebbero limitare i danni, almeno quelli più irreversibili, come il rischio per ragazzini di essere avvicinati da adulti pericolosi.

Un report dell’ex ingegnere META Arturo Béjar, prodotto con il supporto di una serie di ONG specializzate in tema di privacy e minori, è arrivato alla conclusione che gran parte (64 per cento) degli strumenti che dovrebbero proteggere i minori con un account Teen semplicemente non funziona.

META sostiene che gli adulti non possono mandare messaggi diretti agli Account Teen che non li seguono, così da evitare adescamenti o comportamenti sospetti. Ma Arturo Béjar e il suo team hanno fatto una serie di simulazioni e hanno scoperto che questo blocco si può aggirare: per esempio, l’algoritmo di Instagram continua a proporre agli account Teen di seguire adulti che non li seguono – quindi dal punto di vista digitale dei perfetti sconosciuti – e una volta che il minore segue il profilo dell’adulto, questo può mandare messaggi diretti.

Inoltre, i filtri per proteggere i più piccoli dalle parole più offensive e volgari sono aggirabili. Il blocco di più account connessi alla stessa persona, per evitare che malintenzionati cambino identità per approcciare un minore, non funziona.

E i ragazzini sono incoraggiati a scegliere i messaggi che si autocancellano, riducendo il possibile monitoraggio sulle conversazioni da parte dei genitori e rendendo più pericolose le interazioni.

D’altra parte, se questi sistemi di protezione funzionassero davvero, che bisogno avrebbe META di lanciare la campagna per promuovere la “maggiore età digitale in Europa”? Se Instagram fosse già uno spazio sicuro, i genitori sarebbero molto più sereni nel lasciare che i propri figli vi accedano.

Ma META sa perfettamente che i social restano uno spazio pericoloso, per i rapporti con gli adulti anche perché l’algoritmo può incoraggiare comportamenti autolesionistici nei ragazzi. E dunque sposta la responsabilità sui genitori: tocca a loro approvare l’ingresso dei figli in questo spazio così pieno di insidie.

Poi META farà quello che può per limitare i danni, ma se succede qualcosa di brutto l’azienda potrà sempre scaricare la colpa sul genitore incauto che ha sottovalutato le fragilità del figlio finito nei guai.

Per quello che vale la mia esperienza personale, io ho perso ogni fiducia nella capacità e nella volontà di META di proteggere l’integrità dei suoi social questa estate. Qualcuno ha iniziato a clonare il mio profilo, usando la mia foto, e copiando i miei contenuti.

Quel finto profilo poi ha iniziato a seguire giornalisti, personalità pubbliche e persone comuni, che come forma di cortesia ricambiavano il “follow”. A quel punto, una volta creata la connessione, il finto profilo iniziava a proporre investimenti in criptovalute.

Oltre a essere una chiara truffa, questa attività rappresentava per me un serio danno reputazionale, perché io mi occupo molto di economia e ho scritto spesso, in modo molto critico, di criptovalute.

E’ successo due volte in un mese. E due volte ho segnalato a Instagram l’attività illecita di questo profilo e per due volte Instagram mi ha risposto che non poteva sospenderlo perché rispettava i criteri di legittimità della piattaforma.

La sospensione è arrivata soltanto quando moltissimi altri utenti, spontaneamente o sollecitati da me, hanno iniziato a segnalare il profilo. Che però non è stato chiuso, ha soltanto cambiato nome e contenuti e avrà ricominciato a fare truffe con una nuova identità e nuovi bersagli.

Che META non voglia o non riesca a proteggere i propri utenti, ormai poco conta. E’ un fatto che non li protegga. E se non riesce a evitare abusi così smaccati, è davvero pensabile che possa proteggere i ragazzini?

Forse la domanda stessa è priva di senso, perché presuppone che esista un uso responsabile e sicuro dei social network, mentre il best seller dello psicologo Jonathan Haidt sulla Generazione ansiosa (Rizzoli) ha dimostrato che i social network usati nell’età dello sviluppo causano danni permanenti. Interferiscono con lo sviluppo del cervello e della personalità, compromettono il processo di maturazione che consente ai giovani adulti di gestire rapporti sociali.

Instagram, così come TikTok, crea le premesse per quella fragilità così tipica della Generazione Z che poi viene raccontata proprio sulle pagine social.

Quindi, forse non esiste un uso consapevole e responsabile dei social, così come non si può bere alcol o fumare sigarette senza subire danni.

Si può soltanto scegliere l’entità del danno accettabile a fronte del beneficio percepito di aderire a un comportamento vissuto come socialmente obbligatorio, che sia bere un bicchiere in compagnia o avere un profilo Instagram per connettersi con gli amici.

L’EVOLUZIONE DEL PROBLEMA CON L’IA

I problemi, tuttora insoluti, che i minori sperimentano sui social si ripresentano in nuove versioni più insidiose nei chatbot di intelligenza artificiale.

Per questo OpenAI, l’azienda di ChatGpt, ha appena annunciato il 30 settembre la sua versione di “parental control” che dà ai genitori la possibilità di limitare alcune funzionalità degli account dei figli.

Con ChatGpt l’insidia non sta tanto nei rapporti tra minori e adulti malintenzionati, quanto nelle interazioni tra i minori e il chatbot stesso. Ormai si registrano sempre più casi di comportamenti pericolosi: l’intelligenza artificiale che consiglia pratiche di autolesionismo, che spinge fino al suicidio, che flirta con i ragazzini e si produce in conversazioni inappropriate.

Oppure, ed è altrettanto pericoloso, l’intelligenza artificiale può sostituire le interazioni reali, diventare un amico immaginario sempre a disposizione che compromette lo sviluppo di capacità di relazione vitali per un pre-adolescente.

Adesso OpenAI consente ai genitori di bloccare l’utilizzo di ChatGpt per alcune ore, in modo da evitare l’uso compulsivo e la dipendenza, consente di bloccare la generazione di immagini, o silenziare la versione vocale del servizio.

Il paradosso è che queste nuove impostazioni possono trasmettere un falso senso di sicurezza e finiscono addirittura per spingere i genitori a condividere il proprio account con i figli e, a meno che non si disattivi l’apposita impostazione, a usare il comportamento dei minori per addestrare l’algoritmo.

Anche nel migliore dei casi, poi, l’accesso dei genitori alle chat dei figli con l’intelligenza artificiale crea dinamiche inedite nel rapporto familiare. Se i social incoraggiano la proiezione pubblica dei ragazzini, ChatGpt stimola la condivisione dell’intimità, è un confessionale digitale che promette riservatezza.

È legittimo che i genitori possano spiare le conversazioni più personali dei figli con un’entità superiore e quasi onniscente? O è una violazione di ogni possibile rapporto di fiducia? Forse questa ingerenza è necessaria, nell’ipotesi che ai ragazzini venga consentito di usare uno strumento così potente da soli, ma certo è qualcosa che può avere impatti difficili da misurare.

Le cose poi sono più complicate di così. Perché OpenAI avrebbe molti più strumenti di META per individuare i soggetti a rischio e adeguare il prodotto che offre. L’intelligenza artificiale funziona su base probabilistica: sulla base degli input disponibili, stima quale è la risposta appropriata.

Dunque, in teoria, può abbastanza facilmente stimare la probabilità che il soggetto con cui interagisce sia un minore. Ma per una stima accurata e per calibrare le risposte nel modo che la piattaforma stabilisce essere appropriato, ChatGpt deve poter accedere a molte informazioni, per esempio usare le conversazioni precedenti, o dedurre l’età da foto caricate, o da moduli da compilare.

Quindi, l’accuratezza nel riconoscimento del minore può comportare una riduzione costante della sua privacy e l’acquisizione di masse di dati che possono poi generare altri dilemmi e problemi.

Inoltre, come osserva l’ex dirigente di META responsabile delle policy per i più giovani, Vaishnavi J, su Tech Policy Press, è cruciale che ChatGpt riconosca i minori, ma anche che li tratti nel modo giusto:

Prendiamo la promessa di OpenAI secondo cui ChatGPT non intratterrà conversazioni civettuole con i minori. Sulla carta, questo sembra un indubbio successo in termini di sicurezza.

Ma nella pratica, l’esito dipende da come viene formulato il rifiuto. Un “no” secco e giudicante può far sentire un adolescente respinto.

Al contrario, un reindirizzamento supportivo o una deflessione gentile possono preservare la fiducia pur allontanando la conversazione dal rischio.

La lezione che abbiamo imparato nella ormai lunga stagione dei social è che è inutile chiedere alle piattaforme di auto-regolarsi ed è anche difficile per il regolatore pubblico stare sempre al passo con l’innovazione.

Bisogna usare la legge e l’antitrust per ridurre il potere delle piattaforme, per garantire competizione sui vari servizi in modo che le aziende digitali siano incoraggiate a competere anche sulla trasparenza e sulla riservatezza garantite agli utenti.

(Estratto da Appunti)

Torna su