skip to Main Content

Garante Privacy Chatgpt Costi

Cosa succederà dopo l’incontro fra Garante Privacy e OpenAi su ChatGpt

OpenAi si adeguerà alle richieste del Garante per non incorrere in blocchi analoghi in mezzo mondo? Fatti e approfondimenti

 

Mentre ieri tutti gli smanettoni che passano buona parte della propria esistenza sui social guardavano al ministero della Cultura, sede della trattativa tra Meta e Siae, sempre a Roma un’altra istituzione del nostro Paese accoglieva, virtualmente, un’altra azienda statunitense.

Si è infatti tenuto l’incontro tra il Garante della Privacy e la software house responsabile di ChatGpt. L’obiettivo è superare l’impasse che ha portato l’autorità italiana ad avviare un’istruttoria contestando la raccolta illecita dei dati degli utenti italiani e alla disposizione, con effetto immediato, della limitazione provvisoria del loro trattamento da parte di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma, fino a quando la normativa sulla privacy non verrà rispettata. In tutta risposta OpenAi aveva sospeso l’accesso al sito agli utenti italiani.

Ma, appunto, le due parti intendono collaborare. Sia perché sul Garante nostrano sono piovute critiche, in numero inatteso per ammissione dello stesso Guido Scorza, componente del collegio, spesso anche sguaiate e fuori fuoco, che hanno accusato sostanzialmente il nostro Paese di oscurantismo (in realtà l’Autorità non è intervenuta sui problemi etico-morali, come sostenuto sui social, ma solo su tematiche di sua stretta competenza relative al trattamento dei dati), sia perché la software house statunitense – dopo una prima chiusura – si è detta aperta a instaurare un dialogo costruttivo:  “Lavoriamo attivamente per ridurre i dati personali nella formazione dei nostri sistemi di intelligenza artificiale come ChatGpt, perché vogliamo che la nostra intelligenza artificiale impari a conoscere il mondo, non i privati”, avevano spiegato da OpenAi. “Riteniamo inoltre che la regolamentazione dell’Ai sia necessaria. Speriamo quindi di poter lavorare al più presto stretto contatto con il Garante per spiegare come i nostri sistemi siano costruiti e utilizzati”, si legge nella nota dell’organizzazione di ricerca sull’intelligenza artificiale emessa dopo l’intervento italiano.

 

Questo non solo perché l’IA statunitense si nutre di dati, quindi più utenti prendono parte alla conversazione col chatbot meglio è per gli sviluppatori, ma anche e soprattutto in quanto i legali della software house devono aver avvertito chi dirige che la mossa italiana potrebbe rappresentare il classico sassolino che dà vita alla valanga.

 

Subito dopo di noi si è mosso infatti l’omologo canadese, dall’altra parte del globo il caso è sulla scrivania dell’autorità nipponica e nella Ue sono diversi i Paesi pronti a far scattare la tagliola, in primis Francia e Germania, studiando proprio il caso italiano. Meglio, insomma, spegnere l’incendio sul nascere.

 

All’incontro, a cui ha preso parte in apertura anche Sam Altman, CEO di OpenAI, erano presenti, oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.

 

COSA HA DETTO CHATGPT AL GARANTE DELLA PRIVACY

OpenAI, si legge nel comunicato rilasciato dal Garante della Privacy, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l’Autorità italiana con l’obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT.

 

La nota del garante è scarna. Per scoprire la linea difensiva dell’ex startup entrata nell’orbita di Microsoft (si parla di un investimento da 10 miliardi) occorre volgere l’attenzione a quanto diffuso, nelle medesime ore, in un post sul suo blog aziendale nel quale ovviamente ribadisce di condurre “test rigorosi”, coinvolgendo anche esperti esterni, per migliorare il comportamento del modello.

“Dopo che il nostro ultimo modello, GPT-4, ha terminato l’allenamento, abbiamo speso più di sei mesi lavorando all’interno dell’organizzazione per renderlo più sicuro e allineato prima di rilasciarlo pubblicamente”, spiegano da OpenAi.

Viene poi posto l’accento sul fatto che permettere agli utenti di testare il chatbot riveste una “componente critica” per creare e rilasciare sistemi di Ai sempre più sicuri. “L’uso nel mondo reale ci ha anche portato a sviluppare sempre di più politiche contro comportamenti che rappresentano un vero rischio per le persone mentre consentiamo comunque il ricorso per i tanti usi benefici della nostra tecnologia”, scrive l’azienda.

“Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. […] Riteniamo che i potenti sistemi di AI debbano essere soggetti a rigorose valutazioni. La regolamentazione è necessaria per garantire che tali pratiche siano adottate e ci impegniamo attivamente con i governi”.

IL TEMA DELLA TUTELA DEI MINORI

In realtà qualche elemento di criticità nelle condotte della software house statunitense traspare, specie su un punto particolarmente delicato come quello della tutela dei minori. OpenAi ribadisce che occorre avere 18 anni, o 13 con l’approvazione dei genitori, per usare ChatGPT, ma non spiega come controlla l’età, tanto che specifica che sta “studiando opzioni di verifica”. Ricordiamo che l’assenza di un filtro per gli under 13 figurava proprio tra le contestazioni più impellenti del Garante della privacy italiano.

OpenAi sembra spostare l’attenzione su altre cose, affermando per esempio di non consentire che il chatbot sia usato per creare contenuti violenti e afferma che con GPT-4 c’è l’82% in meno di possibilità che generi contenuti in del tipo vietato rispetto a GPT-3.5. Insomma, il chatbot non è poi una “cattiva compagnia”, anche nel caso lo usasse un ragazzino, ma appunto resta il fatto che la software house dovrà escogitare sistemi perché ciò non possa accadere.

COSA DICE IL GARANTE

L’Autorità di garanzia per la riservatezza dei dati ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica ed ha ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei.

 

OpenAI, riporta sempre la nota diffusa dal Garante della Privacy, si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e ad inviare un documento che indichi le misure che rispondano alle richieste dell’Autorità. Il dialogo insomma tra l’istituzione italiana e la software house americana c’è. E pare più fruttuoso di quello con un bot.

Back To Top