Diritti umani e valori democratici come baluardo dell’approccio alla regolamentazione con il primo trattato internazionale sull’Intelligenza artificiale (Ia).
Giovedì l’Unione europea ha firmato la convenzione quadro sull’intelligenza artificiale e i diritti umani, la democrazia e lo Stato di diritto elaborata in seno al Consiglio d’Europa, in una cerimonia tenutasi a Vilnius.
Alla Ue si sono aggiunti 9 paesi, Andorra, Georgia, Islanda, Moldova, Norvegia, San Marino, Regno Unito, Stati Uniti e Israele. Questi ultimi due hanno partecipato assieme ad altri paesi non membri del Consiglio d’Europa alla stesura della convenzione, che mira ad essere un trattato globale.
Con la corsa allo sviluppo di software e tecnologie di intelligenza artificiale, i governi e i regolatori in tutto il mondo si stanno muovendo per sviluppare una serie di nuove normative e standard per l’intelligenza artificiale in rapida evoluzione. Questi includono l’AI Act europeo, l’accordo del G7 concordato lo scorso ottobre e la Dichiarazione di Bletchley, firmata a novembre da 28 paesi, tra cui Stati Uniti e Cina, lo scorso novembre.
Con la convenzione del Consiglio d’Europa l’obiettivo è di creare un quadro globale rispetto al mosaico di regolamenti e accordi esistenti.
Nello specifico, l’accordo richiede ai firmatari di essere responsabili per qualsiasi risultato dannoso e discriminatorio dei sistemi di Ia. Prevede inoltre che gli output di tali sistemi rispettino i diritti di uguaglianza e privacy e che le vittime di violazioni dei diritti correlati all’IA possano ricorrere legalmente.
Ma qual è la vera portata del trattato?
Tutti i dettagli.
PRIMO TRATTATO GIURIDICAMENTE VINCOLANTE SULL’IA
“La convenzione è il primo accordo internazionale giuridicamente vincolante sull’Ia ed è pienamente in linea con la legge dell’Ue sull’Ia, la prima normativa completa sull’Ia al mondo”, si legge in una nota della Commissione europea.
Sempre il comunicato di Bruxelles indica che l’accordo prevede un approccio comune per garantire che i sistemi di Ia siano compatibili con i diritti umani, la democrazia e lo Stato di diritto, consentendo al contempo innovazione e fiducia. Include anche una serie di concetti chiave della legge europea sull’Ia, come l’approccio basato sul rischio, la trasparenza lungo la catena del valore dei sistemi di Ia e dei contenuti generati dall’Ia.
Allo stesso tempo prevede una serie di obblighi: dalla necessità di documentazione dettagliata per i sistemi di Ia identificati come ad alto rischio alla gestione del rischio con la possibilità di introdurre divieti per i sistemi di Ia considerati una chiara minaccia ai diritti fondamentali.
L’OBIETTIVO
Secondo il Consiglio d’Europa, l’obiettivo della convenzione è quello di “colmare eventuali lacune legali che potrebbero derivare da rapidi progressi tecnologici”.
COSA PREVEDE
Come riporta il Guardian, il trattato copre l’uso dell’Ia da parte delle autorità pubbliche e del settore privato. Qualsiasi azienda o ente che utilizzi sistemi di Ia deve valutare il loro potenziale impatto sui diritti umani, sulla democrazia e sullo stato di diritto e rendere tali informazioni disponibili al pubblico. Le persone devono essere in grado di contestare le decisioni prese dai sistemi di Ia e di presentare reclami alle autorità. Gli utenti dei sistemi di Ia devono anche essere informati che hanno a che fare con un’Ia e non con un essere umano.
LE LACUNE
Ma non mancano lacune e aspetti critici.
Se il trattato è pubblicizzato come “legalmente esecutivo”, i critici hanno sottolineato che non prevede sanzioni come multe. La conformità è misurata principalmente attraverso il monitoraggio, una forma relativamente debole di applicazione, sottolinea il Financial Times.
Anche Francesca Fanucci, esperta legale presso l’ECNL (European Center for Not-for-Profit Law Stichting) che ha contribuito al processo di stesura del trattato insieme ad altri gruppi della società civile, ha commentato a Reuters che l’accordo risulta “annacquato” in un ampio insieme di principi. “La formulazione dei principi e degli obblighi in questa convenzione è così ampia e piena di avvertenze che solleva seri dubbi sulla loro certezza giuridica e sulla loro effettiva applicabilità”, ha spiegato l’esperta.
Fanucci ha evidenziato alcuni difetti fra tutti: le esenzioni sui sistemi di intelligenza artificiale utilizzati per scopi di sicurezza nazionale e il controllo limitato delle aziende private rispetto al settore pubblico. “Questo doppio standard è deludente”, ha aggiunto.