Innovazione

Intelligenza artificiale, ecco le regole Ue in cantiere

di

intelligenza artificiale Ue

Il 21 aprile la vicepresidente della Commissione Ue, Vestager, presenterà il pacchetto normativo pensato per regolamentare il settore dell’Intelligenza artificiale. Tutti i dettagli

 

Pronta la terza via dell’Ue sull’intelligenza artificiale. Dopo la privacy, Bruxelles è pronto a regolamentare il settore AI.

L’uso del riconoscimento facciale per la sorveglianza di massa, o algoritmi che manipolano il comportamento umano, saranno vietati nell’Unione europea.

Non solo. Le aziende che sviluppano AI potrebbero incorrere in multe fino al 4% delle entrate globali se non rispettano le nuove regole.

Le regole fanno parte del pacchetto normativo che la Commissione europea presenterà il prossimo 21 aprile secondo una bozza della proposta visionata da alcuni media come Bloomberg e Politico.

Le nuova normativa arriva mentre l’Ue cerca di raggiungere gli Stati Uniti e la Cina sull’introduzione dell’intelligenza artificiale e di altre tecnologie avanzate.

Tuttavia, i nuovi requisiti potrebbero impedire alle aziende tecnologiche della regione di competere con i concorrenti stranieri.

Tutti i dettagli.

L’OBIETTIVO DELL’UE

Dal momento che l’intelligenza artificiale ha iniziato a penetrare in ogni parte della società — dagli assistenti vocali alle decisioni su assunzioni, assicurazioni e forze dell’ordine — l’Ue vuole garantire che la tecnologia impiegata in Europa sia trasparente, abbia la supervisione umana e soddisfi gli standard europei per garantire la privacy.

Con le nuove norme Bruxelles si prepara dunque a vietare del tutto certi usi di sistemi di intelligenza artificiale “ad alto rischio” e ne limiterebbe l’ingresso nel blocco se non rispettano i suoi standard.

SISTEMI IA VIETATI

I sistemi di intelligenza artificiale utilizzati per manipolare il comportamento umano, sfruttare le informazioni su individui o gruppi di individui, o per la sorveglianza indiscriminata sarebbero tutti vietati nell’Ue.

Compresi anche quelli utilizzati per “il punteggio sociale”, ovvero il sistema di credito sociale progettato dalla Cina per indurre i cittadini ad adottare un comportamento migliore.

LE APPLICAZIONI CONSIDERATE “AD ALTO RISCHIO”

Oltre ai sistemi Ai vietati, la proposta di regole include anche applicazioni considerate “ad alto rischio”. Quest’ultime oggetto pertanto di un controllo supplementare.

Tra queste, molte tecnologie attualmente in uso in Europa oggi, come gli algoritmi utilizzati per scansionare i CV, effettuare valutazioni del merito creditizio, distribuire prestazioni di sicurezza sociale o richieste di asilo e visti o aiutare i giudici a prendere decisioni.

SOTTOPOSTE A UNA MAGGIORE SUPERVISIONE

Per l’intelligenza artificiale considerata ad alto rischio, gli Stati membri dovrebbero applicare una supervisione molto maggiore, inclusa la necessità di nominare organismi di valutazione per testare, certificare e ispezionare questi sistemi.

Alcune società saranno autorizzate a svolgere autonomamente valutazioni, mentre altre saranno soggette a controlli da parte di terzi.

Le regole si applicherebbero allo stesso modo alle società con sede nell’Ue o all’estero.

LE SANZIONI PREVISTE

Tutte le aziende che sviluppano servizi vietati o non riescono a fornire informazioni corrette su di essi, potrebbero incorrere in multe fino al 4% delle loro entrate globali. Sanzioni simili a quelle previste per violazioni del Gdpr.

AUTORITÀ NAZIONALI PER EMETTERE CERTIFICAZIONI

I governi dovranno dunque istituire delle autorità nazionali per valutarle ed emettere certificati di conformità che avranno una durata massima di 5 anni.

UN COMITATO EUROPERO PER L’INTELLIGENZA ARTIFICIALE

La Commissione europea prevede inoltre l’istituzione un Comitato Ue per l’intelligenza artificiale. Sarà composto da un rappresentante per ciascuno paese membro, un rappresentante della Commissione, nonché dal Garante europeo della protezione dei dati.

ESCLUSI I SISTEMI DI INTELLIGENZA ARTIFICIALE PER SCOPI MILITARI

Ma le regole non si applicano ai sistemi di intelligenza artificiale utilizzati esclusivamente per scopi militari, secondo il documento.

Così come i sistemi utilizzati dalle forze dell’ordine per la sicurezza pubblica.

SUL RICONOSCIMENTO FACCIALE NEI LUOGI PUBBLICI

Per esempio, i sistemi di identificazione biometrica a distanza — come il riconoscimento facciale — utilizzati in luoghi pubblici richiederebbero un’autorizzazione speciale da parte delle autorità.

Secondo Politico, l’eccezione è progettata per placare paesi come la Francia, che è desiderosa di integrare l’intelligenza artificiale nel suo apparato di sicurezza, ma è osteggiata dai falchi della privacy e dagli attivisti per i diritti digitali che hanno fatto pressioni affinché questi usi siano vietati a titolo definitivo.

(Qui l’approfondimento di Start sulla proposta di legge del Pd per una moratoria del ricorso al riconoscimento facciale nei luoghi pubblici).

LE PERPLESSITÀ DEGLI ATTIVISTI PER I DIRITTI DIGITALI

“Dare discrezionalità alle autorità nazionali per decidere quali casi d’uso consentire o meno rischia di creare le scappatoie e le aree grigie che abbiamo già ai sensi della legislazione attuale e che hanno portato a danni e abusi diffusi”. È l’opinione di Ella Jakubowska del gruppo per i diritti digitali EDRi.

I PASSI SUCCESSIVI

La bozza del documento è ancora suscettibile di modifiche.

Il pacchetto normativo dovrà ottenere infatti il via libera da parte dei governi e del Parlamento Ue prima di entrare in vigore.

LE CRITICHE

Senza dimenticare infine, la pressione delle lobby. È probabile infatti che l’industria contesti le regole rigide dell’Ue, che secondo loro renderebbero il mercato europeo meno attraente.

Un orientamento che i critici considerano pericoloso, perché potrebbe oltre a rendere il Vecchio Continente meno attraente per le imprese anche creare frizioni con gli Usa.  Come aveva già preannunciato in un’intervista con Politico, Eric Schmidt, che presiede la US National Security Commission on Artificial Intelligence (Nscai). Schimdt aveva affermato che l’Europa “semplicemente non è abbastanza grande dal lato della piattaforma” per competere sull’intelligenza artificiale. “L’Europa dovrà collaborare con gli Stati Uniti su queste piattaforme chiave”.

Gli Stati Uniti, che sono molto più preoccupati di contrastare la Cina e le cui società potrebbero essere soggette al regolamento, probabilmente avrebbero preferito una legge più flessibile secondo Politico.

ISCRIVITI ALLA NOSTRA NEWSLETTER

Iscriviti alla nostra mailing list per ricevere la nostra newsletter

Iscrizione avvenuta con successo, ti dovrebbe arrivare una email con la quale devi confermare la tua iscrizione. Grazie, il tuo Team Start Magazine

Errore

Articoli correlati