skip to Main Content

Due Diligence

AI Act, cosa c’è e cosa non c’è

AI Act: la normativa europea vuole garantire che i sistemi immessi sul mercato europeo siano sicuri e rispettino i diritti fondamentali e i valori dell'Ue. Ecco quali sono le applicazioni inammissibili secondo l'AI Act

 

L’Europa si muove nel regolamentare l’Intelligenza artificiale. È pronto l’Ai Act. Un terreno inesplorato quello in cui si è mossa Bruxelles, ma che necessita di essere definito davanti alle opportunità e ai rischi derivanti dallo sviluppo dell’IA, esploso con la diffusione di chatbot come ChatGPT.

AI ACT, ECCO LE NOVITA’

Nocciolo duro della legge è l’adozione di un approccio basato sul rischio. In altre parole, è prevista una serie di obblighi a fornitori e sviluppatori di sistemi di IA a seconda dei diversi livelli di rischio identificati. Uno dei capitoli più importanti, su cui il negoziato si è incagliato per ore, è quello delle pratiche di IA vietate perché comportano un rischio inaccettabile per la sicurezza e i diritti fondamentali.

LA QUESTIONE DEL RICONOSCIMENTO FACCIALE

Simbolo di tutte le battaglie è il divieto dei sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale, il cui uso sarà ora limitato a casi specifici.

I PUNTI CONTROVERSI

Tra i punti controversi, anche quello sui modelli di fondazione come GPT-4, alla base di ChatGPT. L’accordo prevede obblighi più stringenti per i modelli ad alto impatto con rischio sistemico. Norme che Berlino, Parigi e in parte Roma avrebbero voluto diluire in codici di condotta, temendo che gli oneri imposti soffocheranno l’innovazione in Ue.

TUTTI I PUNTI DELL’AI ACT (scheda Agi)

Dopo 3 giorni di negoziati, il Consiglio europeo e il Parlamento europeo hanno raggiunto un accordo sulla proposta di norme armonizzate sull’intelligenza artificiale (AI). Il regolamento, il primo al mondo di questo genere, punta a garantire che i sistemi di intelligenza artificiale utilizzati nell’Unione europea siano sicuri e rispettino i diritti fondamentali e i valori Ue, e anche a stimolare gli investimenti e l’innovazione del settore in Europa.

L’idea principale è di regolamentare l’intelligenza artificiale in base alla sua capacità di causare danni alla società, seguendo un “approccio basato sul rischio”, che va da un rischio minimo ad un rischio inaccettabile: maggiore è il rischio, più severe saranno le regole. La maggioranza dei sistemi AI appartiene alla categoria del rischio minimo.

I sistemi di intelligenza artificiale considerati “ad alto rischio” dovranno rispettare delle regole rigorose, come sistemi di mitigazione del rischio, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di sicurezza informatica.

Tra i sistemi AI ad alto rischio ci sono alcune infrastrutture critiche nei settori del gas, dell’elettricità e dell’acqua, ma anche dispositivi medici, sistemi per l’accesso alle istituzioni educative o per reclutare personale e sistemi utilizzati dalle forze dell’ordine, nei controlli delle frontiere e nell’amministrazione della giustizia. Anche i sistemi di identificazione biometrica rientrano nella categoria ad alto rischio.

Il “rischio inaccettabile” riguarda i sistemi di intelligenza artificiale che si ritengono una minaccia ai diritti fondamentali delle persone, e che quindi verranno vietati: sistemi o applicazioni AI che manipolano il comportamento umano per aggirare il libero arbitrio delle persone, ad esempio giocattoli che, attraverso un assistente vocale, incoraggiano comportamenti pericolosi dei minori, oppure i sistemi che consentono lo scoring sociale da parte di governi e applicazioni di polizia predittiva.

Vi è poi la categoria dei rischi specifici, come le chatbot. Nell’utilizzarle, gli utenti dovranno essere consapevoli che stanno interagendo con una macchina. I deepfake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali, e si dovrà informare gli utenti quando si utilizza un sistema di categorizzazione biometrica o di riconoscimento delle emozioni. I fornitori dovranno progettare dei sistemi tali che i contenuti sintetici testo/immagini/audio/video siano realizzati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.

Il regolamento non si applica a settori esterni al campo di applicazione del diritto dell’Unione europea e non dovrebbe pregiudicare le competenze dei Paesi membri in materia di sicurezza nazionale. La legge sull’AI non si applicherà poi ai sistemi utilizzati esclusivamente per scopi militari o di difesa. Infine, l’accordo prevede che il regolamento non si applichi ai sistemi AI utilizzati al solo scopo di ricerca e innovazione o a coloro che utilizzano l’intelligenza artificiale per scopi non professionali.

L’ANALISI DEL CORRIERE DELLA SERA

“Se i grandi provider di intelligenza artificiale come Google, Meta o Microsoft vorranno continuare a vendere i loro servizi ai cittadini e alle imprese dell’Unione europea dovranno garantire, e certificare, qualità e trasparenza di algoritmi e dati. È uno dei pilastri dell’AI Act europeo – ha scritto il Corriere della sera – Uno dei punti rilevanti, resta quello della responsabilità in capo alle società big tech alle quali sarà richiesta una certificazione sugli algoritmi che dovranno essere, ripuliti dai pregiudizi e sui dati che dovranno avere una conformità ambientale e di sicurezza”.

I TEMPI DELL’AI ACT

Il voto finale sul testo di legge è atteso a inizio febbraio 2024. Da quel momento sono previste le fasi sperimentali che prevedono anche l’adesione volontaria delle imprese alle nuove regole che entreranno in vigore in tempi scaglionati per essere completamente a regime nel 2025, ha aggiunto il Corriere della sera: “Nel testo sul quale la Commissione di Ursula von der Leyen ha ottenuto venerdì a tarda sera, dopo un durissimo negoziato, il sì politico di Parlamento e Consiglio sono molti gli elementi pionieristici e di novità. La sfida è quella di tenere la barra di fronte a una tecnologia che evolve come nessun’altra, ci cambierà la vita e, per ora, promuove un business colossale”.

COME SARANNO TRATTATE LE IMMAGINI ARTIFICIALI

Il sistema di mitigazione dei rischi è il cuore dell’impianto normativo che si declina anche con l’istituzione di un AI Office a Bruxelles, con un proprio budget e con il compito di raccordo e supervisione. Anche i singoli Paesi sono chiamati a dar vita a un’Authority indipendente oppure ad affidare la vigilanza sull’artificial intelligence (AI) a un’autorità già esistente. E, ancora, oltre alla protezione della privacy e dei diritti individuali e collettivi, l’AI act contiene gli attesi paletti sulla produzione e distribuzione in rete di «deep fake», contenuti falsi, e la tutela del copyright. “Nel primo caso – scrive il Corriere della sera – viene imposta la cosiddetta filigrana digitale (watermarking), l’obbligo per gli sviluppatori di inserire la stringa che avverte sui contenuti creati dall’AI. L’immagine del Papa con il piumino, per citare una celebre immagine «fake», potrà arrivare sui nostri device solo con la barra che ci avvisa che si tratta di un’invenzione dell’AI. Quanto al copyright, utilizzare contenuti per alimentare i chatbot avanzati, come ChatGpt o Gemini, non sarà possibile se l’autore avrà richiesto di non utilizzare i propri su cui detiene i diritti. Sui contenuti già prelevati per allenare gli algoritmi, le società tech dovranno essere trasparenti, fornendo riassunti «sufficientemente dettagliati» di quanto utilizzato”.

IL COMMENTO DI MOLINARI (REPUBBLICA)

“Fra le novità più significative – ha commentato Maurizio Molinari, direttore del quotidiano Repubblica – ci sono le salvaguardie da rispettare per chiunque sviluppa e usa l’Intelligenza artificiale; il ricorso all’identificazione biometrica dei singoli da parte delle forze di sicurezza limitato alle indagini su crimini gravi, dalle violenze sessuali al terrorismo; l’obbligo per chiunque crei false immagini di indicare chiaramente che non sono reali; multe significative, fino al 7 per cento delle entrate globali per le aziende, nei confronti di chi viola i nuovi regolamenti europei”.

COSA HA DETTO VON DER LEYEN

“Un momento storico” ha esultato Ursula von der Leyen, celebrando uno dei cavalli di battaglia del suo mandato alla Commissione europea che ha avanzato la proposta nel 2021. La normativa darà “un contributo sostanziale allo sviluppo di regole e principi globali per un’IA incentrata sull’uomo”, ha rivendicato la numero uno dell’esecutivo comunitario. È il cosiddetto ‘effetto Bruxelles’, con cui l’Ue spera di orientare le norme sull’IA a livello mondiale, come accaduto con altri dossier.

IL COMMENTO DI URSO E BUTTI

“Un passo significativo per lo sviluppo dell’IA” è stato il brindisi del ministro delle Imprese, Adolfo Urso, e del sottosegretario alla presidenza del Consiglio con delega all’Innovazione, Alessio Butti, all’intesa politica che ora dovrà incassare l’approvazione finale degli Stati membri, oltre che del Parlamento europeo. E che riguarda un dossier centrale per il governo di Giorgia Meloni: l’IA sarà anche uno dei temi del G7 a presidenza italiana.

LE PAROLE DEL RELATORE DELL’AI ACT

“Alcuni governi compreso quello italiano avrebbero voluto più mano libera nel mettere sotto controllo i cittadini e fare profilazione, ma hanno trovato un muro invalicabile da parte nostra a tutela delle libertà” ha rivendicato il capodelegazione del Pd al Parlamento Europeo e relatore dell’AI Act, Brando Benifei.

LE CRITICHE

Per Amnesty International tuttavia l’Ue ha dato “via libera alla sorveglianza digitale distopica”, creando “un precedente devastante a livello mondiale”. Critica anche l’associazione europea dei consumatori (Beuc), che lamenta “l’ampiezza dei rischi da cui i consumatori saranno impropriamente protetti in futuro”.

IL COMMENTO DI BENANTI

“Noi europei dovremmo essere felici perché l’AI Act ci protegge e ci tutela. Noi siamo europei. E proprio alla luce di questo non possiamo pensare che qualcosa invada il nostro mercato creando dei possibili rischi senza averli valutati prima. Qualche tecnologia arriverà in ritardo? Pazienza”. Ad affermarlo a Repubblica Paolo Benanti, professore della Gregoriana e unico italiano membro del Comitato sull’intelligenza artificiale delle Nazioni Unite. Dell’Ai Act apprezza in particolare “il fatto che dia ai cittadini la possibilità di fare appello. Per esempio in relazione a come vengono trattati i dati biometrici. Dire che in Europa non è possibile collezionare i volti delle persone è una bella novità”. Rispetto al ‘riconoscimento delle emozioni’ afferma “se diamo retta a questa teoria, allora possiamo istruire l’IA a leggere dati che ci interpretano come macchine biologiche. Potremmo trovarci di fronte a una macchina che ci persuade con un testo e che ci può anche manipolare fermandosi poco prima del livello di coscienza. Essere manipolati e controllati è uno scenario che appartiene al peggior film di fantascienza”. Proibito anche l’uso per assegnare alle persone un ‘punteggio sociale’: “In questo i social network si sono già mostrati molto abili. E i casi di manipolazione come quello che ha riguardato Cambridge Analytica l’hanno evidenziato in modo inequivocabile”. Paura dell’IA? “Mi spaventa di più la stupidità naturale. L’IA, se ben usata e regolamentata, può renderci migliori”.

Back To Top