Skip to content

privacy

G7 e Intelligenza Artificiale: il dilemma tra innovazione e privacy

Al via il G7 dei Garanti della Privacy. Lo IAI con un policy paper propone norme flessibili per bilanciare innovazione e privacy nell'IA, con G7 e OCSE a spingere per una governance globale sicura e trasparente.

L’accelerazione dello sviluppo dell’intelligenza artificiale (IA) e il suo crescente impatto su numerosi settori industriali stanno alimentando il dibattito globale su come bilanciare l’innovazione tecnologica con la protezione della privacy. E per garantire che l’innovazione continui a fiorire in un contesto regolamentato e trasparente, dove la privacy sia comunque tutelata, è fondamentale continuare il dialogo multistakeholder che coinvolge governi, industria e società civile.

Questo è uno degli spunti principali emersi dal nuovo policy paper su “Bilanciare privacy e innovazione nell’adozione dell’AI tra i paesi del G7”, presentato in un meeting organizzato dall’Istituto Affari Internazionali (IAI) a margine del vertice del G7 delle autorità della privacy in corso a Roma dal 9 all’11 ottobre che vede impegnati il Collegio del Garante italiano e le Autorità competenti di Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti d’America, insieme al Comitato europeo della protezione dei dati (EDPB) e al Garante europeo della protezione dei dati (EDPS).

Il documento dello IAI – che fa seguito a quello per il G7 AI & Competition della scorsa settimana – mette in luce come le normative attuali, molte delle quali create prima dell’avvento delle tecnologie IA, risultino inadeguate per affrontare le sfide senza precedenti poste da queste tecnologie avanzate. Questo rende necessaria una revisione approfondita delle politiche e dei quadri normativi vigenti per garantire che la privacy sia salvaguardata in un contesto tecnologico in rapida evoluzione.

Chi c’era e chi non c’era alla presentazione del paper IAI

Durante l’evento, moderato da Ferdinando Nelli Feroci, Presidente dello IAI, sono stati trattati temi di grande rilevanza per il futuro della regolamentazione dell’IA. Tra i partecipanti, Guido Scorza, membro dell’Autorità Garante per la protezione dei dati personali; Eleonora Faina, Direttore Generale di Anitec-Assinform; e Clarisse Girot, responsabile dell’unità Data Governance and Privacy presso l’OCSE (Organizzazione per la cooperazione e lo sviluppo economico). Alla tavola rotonda sono poi intervenuti anche rappresentanti ed esperti di aziende, del Dipartimento per la trasformazione digitale (che sta portando avanti un ddl sull’AI), e delle rappresentanze diplomatiche di alcuni Paesi G7, con la discussione concentrata sull’importanza di sviluppare norme che bilancino l’innovazione tecnologica e la protezione dei diritti individuali, in particolare il diritto alla privacy.

Clarisse Girot ha posto l’accento su come “governance efficace dei dati e la tutela della privacy siano elementi chiave per garantire sistemi di intelligenza artificiale affidabili”. L’OCSE – che svolge un ruolo importante nell’elaborazione delle posizioni del G7 – è attivamente impegnato “con entrambe le comunità, quella della protezione dei dati e quella dell’IA, in un processo di apprendimento reciproco e convergenza. Nelle attuali circostanze geopolitiche, la cooperazione internazionale è sempre più importante per garantire che le persone possano cogliere in sicurezza tutti i benefici che l’IA può offrire”. Questo concetto risuona nel policy paper dello IAI, che evidenzia come la regolamentazione dell’IA richieda un approccio flessibile, capace di adattarsi ai rapidi cambiamenti tecnologici. La governance dei dati diventa dunque uno strumento essenziale per affrontare le sfide della privacy nell’era digitale.

Le sfide della privacy nell’era dell’IA

Nel contesto della trasformazione digitale, le tecnologie IA sono in grado di raccogliere e analizzare enormi quantità di dati personali, aumentando il rischio di violazioni della privacy. Uno dei principali temi emersi durante il side event riguarda la capacità delle tecnologie IA di utilizzare dati provenienti da fonti diverse, come i media tradizionali, i social media, i siti web e i dispositivi mobili, con il risultato che gli individui hanno un controllo sempre minore su come i propri dati vengono raccolti e utilizzati.

Il policy paper dello IAI evidenzia come la raccolta massiva di dati da parte dei sistemi di IA possa portare a rischi significativi, tra cui attacchi di phishing, furti d’identità e utilizzi distorti della tecnologia di riconoscimento facciale. Questi rischi evidenziano la necessità di norme e meccanismi che consentano agli individui di mantenere il controllo sui propri dati, imponendo inoltre alle aziende di cancellare i dati che potrebbero essere utilizzati in modo improprio.

Guido Scorza ha ribadito durante l’evento l’importanza di un equilibrio tra il diritto all’innovazione e il diritto alla privacy: ” “Dobbiamo trovare un modo per bilanciare il diritto all’innovazione e il diritto alla privacy perché dobbiamo garantire alle persone il diritto di non dover scegliere tra innovazione e privacy e perché dobbiamo individuare come possiamo sfruttare al meglio le opportunità offerte dall’intelligenza artificiale e altre innovazioni proteggendo la privacy. Sono sicuro che con un approccio aperto e multi-stakeholder possiamo farcela”. Eleonora Faina ha aggiunto che il settore privato possa e debba svolgere un ruolo cruciale nella creazione di un ambiente digitale più sicuro e trasparente. La fiducia degli utenti è infatti un fattore essenziale per garantire che l’innovazione tecnologica possa progredire in modo responsabile, senza compromettere i diritti individuali.

Il paper sottolinea come una regolamentazione efficace dell’IA debba prendere in considerazione l’intero ecosistema dei dati che alimenta l’IA, dalla raccolta dei dati alla loro elaborazione e utilizzo per addestrare modelli avanzati. Questo approccio consente di identificare i punti critici in cui la privacy potrebbe essere compromessa e di implementare misure appropriate per prevenirne l’abuso.

Il ruolo del G7 e le iniziative internazionali

L’evento dello IAI – organizzato nel quadro di un programma sulla trasformazione digitale e la regolamentazione dell’IA, che l’istituto sta guidando come co-presidente di Think7, una delle piattaforme ufficiali del G7 per la fornitura di raccomandazioni politiche – si collega agli sforzi più ampi del G7 per regolamentare l’IA e promuovere la protezione della privacy. Uno dei principali risultati del G7 è stato l’approvazione dei “Principi guida sull’intelligenza artificiale” e di un codice di condotta volontario per gli sviluppatori di IA, nell’ambito del processo AI Hiroshima, lanciato dalla Presidenza giapponese nel 2023. In entrambi i documenti, la protezione della privacy è enfatizzata come un principio centrale.

La cooperazione internazionale è essenziale per stabilire standard comuni che bilancino l’innovazione e la protezione dei dati personali. Il concetto di “Data Free Flow with Trust” (DFFT), promosso dal G7 e fortemente supportato anche dal B7 (espressione delle confederazioni industriali dei Paesi del G7), mira a garantire che i dati possano circolare liberamente tra le nazioni, rispettando però i diritti alla privacy. Questo aspetto è stato centrale anche nelle discussioni durante l’evento parallelo dell’IAI. L’iniziativa, inizialmente proposta dal Giappone, è oggi al centro del dialogo internazionale sulla governance dei dati.

L’OCSE ha giocato un ruolo importante nel rafforzare la cooperazione internazionale attraverso l’adozione di principi aggiornati sull’IA. Nel maggio 2024, l’OCSE ha rivisto e aggiornato i propri principi, a cui aderiscono 46 paesi, promuovendo una regolamentazione comune che garantisca la protezione della privacy senza ostacolare l’innovazione tecnologica. Un ulteriore passo avanti è stato fatto con l’avvio, nel luglio 2024, di una fase pilota per monitorare l’applicazione del codice di condotta del G7.

Innovazione e privacy: un equilibrio necessario

Il documento dello IAI e le discussioni al G7 concordano sull’importanza di trovare un equilibrio tra innovazione e privacy. Il rapido sviluppo dell’IA richiede però un approccio normativo flessibile che possa adattarsi ai continui cambiamenti tecnologici, senza tuttavia compromettere i diritti individuali. Questo approccio flessibile – secondo IAI e da quanto emerso dalla discussione – deve essere basato su un aggiornamento costante delle conoscenze tecnologiche, affinché le normative possano rispondere in modo efficace ai nuovi sviluppi.

Le tecnologie IA stesse possono giocare un ruolo chiave nella protezione della privacy, attraverso lo sviluppo di strumenti che permettano di gestire in modo sicuro i dati personali. In particolare, le tecnologie di IA possono contribuire alla creazione di sistemi di protezione su misura, che offrano una maggiore trasparenza e responsabilità nella gestione dei dati sensibili. Questi strumenti possono essere utilizzati per garantire che i dati siano raccolti, trattati e conservati nel rispetto dei diritti alla privacy, minimizzando il rischio di abusi.

Il miglioramento della trasparenza nel ciclo di vita dei dati raccolti e generati dalle tecnologie IA è quindi essenziale per garantire una protezione adeguata della privacy. Una migliore comprensione di come i dati vengono gestiti in ogni fase, dalla raccolta alla loro elaborazione per specifici compiti, permetterebbe di adottare misure efficaci per prevenire distorsioni e discriminazioni, garantendo un’equa distribuzione di ruoli e responsabilità tra sviluppatori e utenti di IA.

Il contesto transatlantico: convergenze e divergenze

Uno dei temi centrali sollevati durante l’evento è stato poi il confronto tra l’approccio normativo adottato dagli Stati Uniti e quello dell’Unione Europea. Mentre l’UE ha sviluppato un corpus normativo robusto, tra cui il GDPR (General Data Protection Regulation) e l’Artificial Intelligence Act (AI Act), gli Stati Uniti hanno optato per un approccio basato su principi guida volontari. Tuttavia, nonostante queste differenze, esistono profonde convergenze su temi fondamentali come la protezione della privacy, che possono facilitare la cooperazione transatlantica. Ed è sempre di ieri un rapporto della Commissione europea in cui questa ha dichiarato di essere soddisfatta di come le autorità statunitensi, comprese le agenzie di intelligence americane, abbiano attuato i requisiti chiave del quadro per la protezione dei dati tra UE e Stati Uniti a un anno dalla entrata in vigore del Data Privacy Framework.

A cercare di mettere d’accordo le due sponde dell’Atlantico c’è il Trade and Technology Council (TTC), che rappresenta una piattaforma chiave per promuovere il dialogo transatlantico su questioni cruciali come la regolamentazione dell’IA e la protezione della privacy. Il TTC sta infatti lavorando all’implementazione di una roadmap comune per stabilire standard condivisi e garantire che i sistemi di IA siano sviluppati e utilizzati in modo sicuro e trasparente.

Un futuro digitale sicuro e affidabile

La tutela della privacy nell’era dell’intelligenza artificiale richiede una risposta coordinata a livello internazionale. La cooperazione transatlantica e le iniziative del G7 come il Codice di condotta e il Data Free Flow with Trust (DFFT) rappresentano passi importanti in questa direzione. Sviluppare un ecosistema affidabile di IA che salvaguardi i diritti individuali è una sfida complessa, che necessita di sforzi convergenti da parte di governi, organizzazioni internazionali e attori privati. Solo attraverso un dialogo aperto con tutte le parti interessate e un approccio collaborativo sarà possibile promuovere l’innovazione garantendo al contempo la trasparenza, la responsabilità e la protezione dei dati personali. Il cammino è ancora lungo, ma piattaforme condivise stanno gettando le basi per affrontare questa cruciale questione a beneficio delle società moderne.

Per costruire un futuro digitale sicuro e affidabile, è quindi necessario – conclude il paper IAI – che la protezione della privacy sia integrata in ogni fase dello sviluppo delle tecnologie IA. Il G7, dei governi e delle autorità, e l’OCSE offrono piattaforme cruciali per promuovere una governance globale dell’IA che tuteli la privacy senza soffocare l’innovazione, attraverso una cooperazione internazionale continua e una regolamentazione che evolva insieme alle tecnologie.

IL PAPER DELLO IAI

Torna su