“Abbiamo bloccato la ricerca sull’intelligenza artificiale generativa in Europa perché la normativa ci impedisce di utilizzare i dati pubblici dei nostri utenti per allenare gli algoritmi del nostro sistema Llama”. È quanto detto da Luca Colombo, country manager italiano di Meta, alla Conferenza internazionale ComoLake, la Cernobbio del digitale. A riferirlo è il Sole24Ore.
Già lo scorso giugno c’erano stati degli attriti tra la Big Tech di Mark Zuckerberg e l’Unione europea, con il primo che voleva modificare l’informativa sulla privacy di Meta al fine di usare i dati – non solo pubblici ma anche personali – degli utenti per addestrare la sua tecnologia.
LA GUERRA DEI DATI TRA UE E META
Circa quattro mesi fa gli utenti europei di Facebook e Instagram si erano mobilitati per impedire a Meta di sfruttare i propri dati per allenare la sua intelligenza artificiale Llama. L’azienda giustificava il suo diritto di impossessarsene attraverso il “legittimo interesse”, che le permette di non chiedere il consenso agli utenti.
Gli utenti avrebbero potuto opporsi e negare il consenso, ma solo attraverso una complicata procedura che probabilmente avrebbe fatto desistere la maggior parte delle persone.
Inoltre, la disciplina del “legittimo interesse” è stata stabilita quando ancora non si pensava all’uso dei dati nel modo in cui vengono sfruttati oggi e, dunque, andrebbe aggiornata ai tempi attuali. È quanto sostenuto anche da Agostino Ghiglia, componente del Garante per la protezione dei dati personali, che intervenendo al ComoLake ha detto: “Tutti noi, ormai tanti anni addietro, per quello che mi riguarda forse era il 2008 o il 2009, abbiamo aderito al social dando il nostro benestare alle condizioni di accettazione per quello che sembrava più che altro un passatempo, non immaginavamo certo che pochi anni dopo tutto quello che facevamo o postavamo sarebbe diventato preziosissimo per implementare le nuove tecnologie”.
LA SOTTILE LINEA TRA DATI PUBBLICI E PRIVATI
Colombo però ha voluto sottolineare che la loro richiesta riguarda solo i dati pubblici. “Quello che abbiamo chiesto, ma che il regolamento europeo non dirime in modo per noi chiaro, è la possibilità di mettere a sistema e di utilizzare i dati pubblici di Facebook per implementare l’intelligenza artificiale. Beninteso, ripeto, quelli pubblici, non quelli che ognuno di noi vuole condividere solo nella stretta cerchia degli amici”.
Qui comunque sarebbe da approfondire se Meta riesce davvero in questa operazione di triage di dati poiché un anno fa ammetteva di aver usato post pubblici di Instagram e Facebook per addestrare la sua IA “cercando di escludere i set di dati con una forte preponderanza di informazioni personali”.
Tuttavia, quanto detto prima esplicita la difficoltà di un utente nel rendere privato ciò che magari – anche non troppo consapevolmente – è invece pubblico. Inoltre, Meta, per il “legittimo interesse”, riuscirebbe a tracciare anche i dati di persone che addirittura che non sono iscritte alle sue piattaforme, nel caso in cui loro informazioni siano state pubblicate da terzi.
A giugno, quindi, era intervenuto il Centro europeo per i diritti digitali (noto anche come None of your business, Noyb), che aveva chiesto alle autorità per la protezione dei dati di 11 Paesi – tra cui l’Italia – di avviare una procedura d’urgenza a causa degli imminenti cambiamenti all’informativa sulla privacy annunciati da Meta.
Infine, la Commissione per la protezione dei dati irlandese (Dpc) aveva riferito che, dopo un intenso scambio con Meta, l’azienda avrebbe messo “in pausa i suoi piani per addestrare la sua tecnologia utilizzando contenuti pubblici condivisi da adulti su Facebook e Instagram in tutta l’Unione europea”.
META VITTIMA DELL’UE?
Al ComoLake, Colombo ha anche rispolverato un leitmotiv già sentito nei mesi scorsi: “Peraltro alcuni altri grandi player come Google e OpenAI invece sono ancora attivi in questa operazione di raccolta dati e non si capisce quale sia la ratio di questo ostacolo”.
A giugno infatti un portavoce di Meta aveva detto: “Siamo certi che il nostro approccio sia conforme alle leggi sulla privacy e che sia coerente con il modo in cui altre aziende tecnologiche stanno sviluppando e migliorando le loro esperienze di IA in Europa (tra cui Google e OpenAI)”.
E l’azienda stessa, dopo il parere del Dpc, oltre a essersi detta “delusa”, si era definita “più trasparente di molti altri operatori del settore”. Proprio su ChatGPT di OpenAI, nel marzo 2023, l’Autorità garante della privacy italiana era intervenuta per prima, dando il via a un dibattito globale sull’IA e sull’uso dei dati.
IL PARERE DEL GARANTE PRIVACY
“Penso che i dati personali non debbano essere venduti ma possano essere commercializzati se esiste un consenso dell’utente, di quella che ormai possiamo definire la persona-dato”, ha dichiarato al ComoLake Ghiglia, osservando che, sebbene la normativa europea ci faccia rischiare di “spostare parte della nostra capacità di ricerca, e dunque anche di economia, nei Paesi che hanno legislazioni meno esigenti come la Gran Bretagna e gli stessi Stati Uniti”, “non possiamo esimerci dal compiere un dettato costituzionale che è quello di difendere il diritto alla privacy dei cittadini”.
Anche Max Schrems, fondatore di Noyb, a giugno, affermando che il commento di Meta alla decisione forzata di “mettere in pausa” i suoi piani per addestrare la sua IA suonava “un po’ come una ‘punizione collettiva’”, aveva osservato: “Se un europeo insiste sui propri diritti, l’intero continente non riceverà i nostri nuovi prodotti. Tuttavia, Meta ha tutte le possibilità di lanciare l’IA sulla base di un consenso valido, solo che sceglie di non farlo”.