skip to Main Content

Ai Act

AI Act: ecco regole, divieti ed eccezioni

Livelli di rischio, riconoscimento biometrico, diritto d'autore, deepfake e sanzioni. Ecco cosa contiene l'AI Act, la prima legge al mondo sull'intelligenza artificiale (IA) approvata ieri dal Parlamento europeo. Tutti i dettagli

 

Con 523 voti a favore, 46 contrari e 49 astenuti ieri il Parlamento europeo ha approvato l’AI Act, la prima legislazione al mondo sull’intelligenza artificiale (IA) che, come ha detto Brando Benifei (Pd-Pse), correlatore della norma, ha l’obiettivo di “limitare i rischi e aumentare le opportunità” di questa tecnologia.

Per entrare in vigore manca solo il via libera del Consiglio dell’Ue, per il quale non si intravedono intoppi. Tuttavia, Benifei ha precisato che il regolamento non sarà subito obbligatorio per aziende e istituzioni poiché sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i codici di condotta (dopo 9 mesi), le norme generali sui sistemi di IA compresa la governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36 mesi).

LA PIRAMIDE DEI RISCHI DELL’IA

Per stabilire a livello comune i rischi dell’IA, l’Ue ha immaginato una piramide con quattro gradi di rischio: minimo (videogiochi abilitati per l’IA e filtri anti-spam), limitato (chatbot), alto (assegnazione di punteggi a esami scolastici e professionali, smistamento dei curricula, valutazione dell’affidabilità delle prove in tribunale, chirurgia assistita da robot) e inaccettabile (tutto ciò che rappresenta una “chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone”, come l’assegnazione di un ‘punteggio sociale’ da parte dei governi).

Per i sistemi a rischio basso non è previsto nessun intervento, per quelli a livello limitato ci sono delle richieste di trasparenza. Le tecnologie a rischio alto devono, invece, essere regolamentate e quelle di livello considerato inaccettabile sono vietate.

DIVIETI ED ECCEZIONI SUL RICONOSCIMENTO BIOMETRICO

I sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale sono stati tra i temi caldi nella definizione dell’AI Act.

Con la normativa sono a tutti gli effetti fuori legge e saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Anche le forze dell’ordine, “in linea di principio”, non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Tra gli usi ammessi rientrano, tra gli altri, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico.

L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio e, quindi, in tal caso l’autorizzazione giudiziaria dovrà essere collegata a un reato.

DIRITTO D’AUTORE E DEEPFAKE

L’AI Act poi prevede anche che i sistemi di IA per finalità generali e i modelli su cui si basano debbano soddisfare determinati requisiti di trasparenza e rispettare le norme Ue sul diritto d’autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, mitigare i rischi sistemici e riferire in merito agli incidenti.

Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti “deepfake”) dovranno essere chiaramente etichettati come tali.

SOSTEGNO ALL’INNOVAZIONE

A sostegno dell’innovazione e della sicurezza, l’AI Act afferma che i Paesi dell’Ue dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (sandbox), in modo che Pmi e startup possano addestrare i sistemi di IA prima di immetterli sul mercato.

LE SANZIONI

La violazione dell’AI Act comporta per un’azienda il pagamento di una percentuale del fatturato globale annuo nell’esercizio finanziario precedente o di un importo predeterminato: 35 milioni di euro o il 7% per le violazioni delle applicazioni vietate; 15 milioni di euro o il 3% per le violazioni degli obblighi della legge; 7,5 milioni di euro o l’1,5% per la fornitura di informazioni non corrette. A Pmi e startup saranno, invece, applicati massimali proporzionati.

COSA RESTA DA FARE

Come sottolineato sia da Benifei che dall’altro correlatore dell’AI Act, Dragos Tudorache (Renew, Romania), resta ancora molto da fare oltre la legge, specialmente in materia di IA sui luoghi di lavoro, per cui è stata chiesta alla Commissione una direttiva specifica.

“L’intelligenza artificiale ci spingerà a ripensare il contratto sociale che sta alla base delle nostre democrazie. Insieme ai nostri modelli educativi, ai nostri mercati del lavoro, al modo in cui conduciamo le guerre. La legge sull’IA non è la fine del viaggio, ma piuttosto il punto di partenza per un nuovo modello di governance basato sulla tecnologia”, ha commentato Tudorache.

Back To Top