Mentre ieri tutti gli smanettoni che passano buona parte della propria esistenza sui social guardavano al ministero della Cultura, sede della trattativa tra Meta e Siae, sempre a Roma un’altra istituzione del nostro Paese accoglieva, virtualmente, un’altra azienda statunitense.
Si è infatti tenuto l’incontro tra il Garante della Privacy e la software house responsabile di ChatGpt. L’obiettivo è superare l’impasse che ha portato l’autorità italiana ad avviare un’istruttoria contestando la raccolta illecita dei dati degli utenti italiani e alla disposizione, con effetto immediato, della limitazione provvisoria del loro trattamento da parte di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, fino a quando la normativa sulla privacy non verrà rispettata. In tutta risposta OpenAi aveva sospeso l’accesso al sito agli utenti italiani.
We of course defer to the Italian government and have ceased offering ChatGPT in Italy (though we think we are following all privacy laws).
Italy is one of my favorite countries and I look forward to visiting again soon!
— Sam Altman (@sama) March 31, 2023
Ma, appunto, le due parti intendono collaborare. Sia perché sul Garante nostrano sono piovute critiche, in numero inatteso per ammissione dello stesso Guido Scorza, componente del collegio, spesso anche sguaiate e fuori fuoco, che hanno accusato sostanzialmente il nostro Paese di oscurantismo (in realtà l’Autorità non è intervenuta sui problemi etico-morali, come sostenuto sui social, ma solo su tematiche di sua stretta competenza relative al trattamento dei dati), sia perché la software house statunitense – dopo una prima chiusura – si è detta aperta a instaurare un dialogo costruttivo: “Lavoriamo attivamente per ridurre i dati personali nella formazione dei nostri sistemi di intelligenza artificiale come ChatGpt, perché vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non i privati”, avevano spiegato da OpenAi. “Riteniamo inoltre che la regolamentazione dell’Ai sia necessaria. Speriamo quindi di poter lavorare al più presto stretto contatto con il Garante per spiegare come i nostri sistemi siano costruiti e utilizzati”, si legge nella nota dell’organizzazione di ricerca sull’intelligenza artificiale emessa dopo l’intervento italiano.
ChatGPT ha avviato un dibattito qui sulla privacy e il famoso (ma poco conosciuto) Gdpr.
Bene. È utile. Ma quando fate clic su @repubblica (o un altro) acconsentendo al trattamento dei vostri dati, sapete a chi vanno?
Ecco la sintesi della profilazione. pic.twitter.com/IpeUQrFJeb
— David Carretta (@davcarretta) April 6, 2023
Questo non solo perché l’IA statunitense si nutre di dati, quindi più utenti prendono parte alla conversazione col chatbot meglio è per gli sviluppatori, ma anche e soprattutto in quanto i legali della software house devono aver avvertito chi dirige che la mossa italiana potrebbe rappresentare il classico sassolino che dà vita alla valanga.
France and Germany now looking to join Italy in banning ChatGPT rather than focusing on how to build their own AI industry. This is what terminal cultural decline looks like. Not with a bang but a bureaucracy.
— David Galbraith (@daveg) April 6, 2023
Subito dopo di noi si è mosso infatti l’omologo canadese, dall’altra parte del globo il caso è sulla scrivania dell’autorità nipponica e nella Ue sono diversi i Paesi pronti a far scattare la tagliola, in primis Francia e Germania, studiando proprio il caso italiano. Meglio, insomma, spegnere l’incendio sul nascere.
Il Gdpr è bello, buono e bravo. Perché in un mondo ideale voi siete proprietari dei vostri dati.
Il problema del Gdpr è che basta un clic inconsapevole (quello fastidioso che vi da accesso a contenuti di Repubblica) e perdete tutti i diritti sui vostri dati.
— David Carretta (@davcarretta) April 6, 2023
All’incontro, a cui ha preso parte in apertura anche Sam Altman, CEO di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.
Il Gdpr è uno strumento da 2005 introdotto nel 2016, ma siamo nel 2023.
I dati sensibili vengono ceduti a colossi americani o cinesi o europei che monetizzano tutto ciò che guardate grazie a un clic fastidioso.
— David Carretta (@davcarretta) April 6, 2023
COSA HA DETTO CHATGPT AL GARANTE DELLA PRIVACY
OpenAI, si legge nel comunicato rilasciato dal Garante della Privacy, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT.
Ricapitolando: 🌐🚨🤖 Forse il provvedimento del Garante Italiano sulla privacy riguardante ChatGPT non era così strampalato come alcuni pensavano…
Mezzo moldo nelle scorse ore ha inizato a muoversi, e vediamo le posizioni in dettaglio:🇺🇸 OpenAI è al centro di un reclamo…
— Matteo G.P. Flora (@lastknight) April 4, 2023
La nota del garante è scarna. Per scoprire la linea difensiva dell’ex startup entrata nell’orbita di Microsoft (si parla di un investimento da 10 miliardi) occorre volgere l’attenzione a quanto diffuso, nelle medesime ore, in un post sul suo blog aziendale nel quale ovviamente ribadisce di condurre “test rigorosi”, coinvolgendo anche esperti esterni, per migliorare il comportamento del modello.
“Dopo che il nostro ultimo modello, GPT-4, ha terminato l’allenamento, abbiamo speso più di sei mesi lavorando all’interno dell’organizzazione per renderlo più sicuro e allineato prima di rilasciarlo pubblicamente”, spiegano da OpenAi.
Viene poi posto l’accento sul fatto che permettere agli utenti di testare il chatbot riveste una “componente critica” per creare e rilasciare sistemi di Ai sempre più sicuri. “L’uso nel mondo reale ci ha anche portato a sviluppare sempre di più politiche contro comportamenti che rappresentano un vero rischio per le persone mentre consentiamo comunque il ricorso per i tanti usi benefici della nostra tecnologia”, scrive l’azienda.
“Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. […] Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi”.
IL TEMA DELLA TUTELA DEI MINORI
In realtà qualche elemento di criticità nelle condotte della software house statunitense traspare, specie su un punto particolarmente delicato come quello della tutela dei minori. OpenAi ribadisce che occorre avere 18 anni, o 13 con l’approvazione dei genitori, per usare ChatGPT, ma non spiega come controlla l’età, tanto che specifica che sta “studiando opzioni di verifica”. Ricordiamo che l’assenza di un filtro per gli under 13 figurava proprio tra le contestazioni più impellenti del Garante della privacy italiano.
OpenAi sembra spostare l’attenzione su altre cose, affermando per esempio di non consentire che il chatbot sia usato per creare contenuti violenti e afferma che con GPT-4 c’è l’82% in meno di possibilità che generi contenuti in del tipo vietato rispetto a GPT-3.5. Insomma, il chatbot non è poi una “cattiva compagnia”, anche nel caso lo usasse un ragazzino, ma appunto resta il fatto che la software house dovrà escogitare sistemi perché ciò non possa accadere.
COSA DICE IL GARANTE
L’Autorità di garanzia per la riservatezza dei dati ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei.
Provo a farla semplice su Garante e #Chatgpt.
Poi basta non so come dirlo altrimenti. pic.twitter.com/QlAcRx0onR— Matteo G.P. Flora (@lastknight) April 6, 2023
OpenAI, riporta sempre la nota diffusa dal Garante della Privacy, si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare un documento che indichi le misure che rispondano alle richieste dell’Autorità. Il dialogo insomma tra l’istituzione italiana e la software house americana c’è. E pare più fruttuoso di quello con un bot.