skip to Main Content

Il fuoco amico su Meloni e Schlein, le coccole lobbistiche al Garante, la Zuppa di Porro un po’ statalista

Il Giornale su Meloni, La Stampa su Schlein, La Zuppa di Porro, i nuovi piani di Stellantis, la rassegna del Garante e non solo. Pillole di rassegna stampa a cura di Michele Arnese

 

FUOCO AMICO SU MELONI E SCHLEIN

 

LO SCOOPPISMO DEL TG1 DIRETTO DA CHIOCCI

 

I NUOVI PIANI DI STELLANTIS

 

LA ZUPPA A SORPRESA DI PORRO

 

QUISQUILIE & PINZILLACCHERE

+++

ESTRATTO DALLA RASSEGNA WEB DEL GARANTE PER LA RISERVATEZZA DEI DATI (qui l’intervista integrale):

Oltre ChatGpt, l’Intelligenza artificiale entrerà nel nostro cervello. Parla Guido Scorza

Intelligenza artificiale, privacy, copyright, trasferimento di dati tra Europa e Stati Uniti, Cloud act e neuroverso. Con Guido Scorza, componente del Garante per la protezione dei dati personali, abbiamo parlato delle questioni più “calde” all’incrocio tra vita privata e tecnologie di frontiera. L’intervista, registrata negli Utopia Studios, è disponibile sia in video sia in questa trascrizione

Intervista a Guido Scorza, componente del Garante per la protezione dei dati personali
(di Giorgio Rutelli, “Formiche”, 5 luglio 2023)

Il Garante Italiano della Privacy è diventato famoso in tutto il mondo per il provvedimento che non bloccava ChatGpt come dicevano i titoli (ma noi giornalisti dobbiamo fare i titoli), ma chiedeva a OpenAI di allinearsi a un minimo di regole sul trattamento dei dati. La società ha poi aggiustato un po’ di cose e ha rimesso la sua piattaforma online nel nostro Paese. Che fine fanno oggi i nostri dati quando usiamo l’Intelligenza artificiale generativa?

Intanto direi che siamo più prossimi al fischio d’inizio che al triplo fischio finale di una partita. Si è conclusa, con OpenAi, la fase dell’urgenza: gli avevamo detto che quello che stavamo vedendo era lontano da quello che la disciplina sulla privacy europea suggerisce, e che una società che voglia erogare quel genere di servizio deve rispettare. È iniziata immediatamente un’interlocuzione con ChatGpt, come si ricordava prima, e abbiamo adottato un secondo provvedimento d’urgenza, con una serie di prescrizioni, che non mettevano tutto a posto ma tamponavano l’emergenza. OpenAI si è impegnato a farlo con delle scadenze, l’ultima delle quali è quella relativa alla age verification, che arriverà a fine settembre, e quindi ha riaperto il servizio in Italia. Pende di fronte all’autorità italiana in questo momento il procedimento di merito, per capire se OpenAI avesse violato, e in che termini, i diritti relativi alla privacy di persone che vivono in Italia. Quel procedimento si concluderà come si concludono tutti i procedimenti, cioè con un’archiviazione parziale o totale, con una sanzione, con dei provvedimenti correttivi con cui dire a OpenAI di fare di più e di far meglio per rispettare le regole.

Ci sono altri garanti che indagano su questi sistemi in Europa?

Le stesse perplessità che noi abbiamo sollevato in quell’occasione sono poi state sollevate da una serie di altre autorità. Se ne è parlato in senso allo European Data Protection Board, il comitato europeo che raggruppa tutti i garanti dei dati personali, e ha istituito una task force che non gestirà le singole istruttorie nazionali ma si cercherà di identificare un minimo comun denominatore dal punto di vista dei principi cui dovranno ispirarsi le singole autorità nazionali nel gestire i procedimenti che hanno davanti.

È anche accaduto che altre autorità di protezione dei dati, europee o non europee, abbiano aperto autonome istruttorie nei confronti di Open AI: è accaduto in Francia, in Spagna, in Canada e in altri paesi a giro per il mondo, confermando che i problemi sostanzialmente sono quelli. Dobbiamo capire se e in che termini queste intelligenze artificiali possono essere considerate compatibili con la disciplina europea sulla privacy. E se la risposta fosse no, avremmo un problema ben più grande rispetto a quello che si è affrontato nel procedimento con OpenAI.

Qual è il problema principale?

Il tema che svetta è: quale base giuridica consente a qualcuno di raccogliere, facendo scraping cioè raccogliendo a strascico, una massa enorme di dati per addestrare gli algoritmi? Facendo semplice quello che semplice non è, di potrebbe essere una sola base giuridica nel Gdpr, ed è il cosiddetto legittimo interesse. Un’azienda può trattare dati personali, anche per ragioni commerciali, perché ha un interesse legittimo, considerabile prevalente rispetto al diritto alla privacy. La persona interessata ha sempre il diritto di alzare la mano e dire ora basta, cioè di esercitare il diritto d’opposizione. Oggettivamente, il legittimo interesse, quando è stato pensato e portato all’interno del Gdpr, non è stato concepito per questo tipo di casi. Quindi il più grande dei quesiti che non noi in Italia, ma tutte le autorità di protezione dei dati in Europa ora devono affrontare, speriamo con una posizione comune, è se questo legittimo interesse va bene, e se va bene a quali condizioni.

Senza voler anticipare le decisioni che verranno, se anche ci si trovasse d’accordo, dovremmo comunque accordarci su un fatto: almeno un obbligo di informare tutti gli interessati che i loro dati personali potrebbero essere portati in pancia a un server da qualche parte in giro per il mondo – per poi essere dati in pasto a degli algoritmi – è indispensabile. Nel caso di OpenAI questo avvertimento è mancato, come in tanti altri casi analoghi.

Back To Top