Skip to content

intelligenza artificiale

L’Intelligenza artificiale distruggerà gli Stati? Report Nyt

Nonostante l'Unione europea si sia mossa in anticipo rispetto a molti per regolamentare l'intelligenza artificiale, non riesce - come molti altri Paesi, tra cui gli Stati Uniti - a stare al passo con la velocità di questa tecnologia e questo potrebbe avere serie ripercussioni. L'articolo del New York Times

 

Quando nell’aprile 2021 i leader dell’Unione europea hanno presentato un progetto di legge di 125 pagine per regolamentare l’intelligenza artificiale, lo hanno salutato come un modello globale per la gestione della tecnologia. Scrive il NYT.

I legislatori dell’Ue hanno ricevuto per tre anni i contributi di migliaia di esperti in materia di IA, quando in altri Paesi l’argomento non era ancora stato affrontato. Il risultato è stato una politica “storica” e “a prova di futuro”, ha dichiarato Margrethe Vestager, responsabile della politica digitale del blocco dei 27 Paesi.

L’ARRIVO DI CHATGPT HA SPIAZZATO L’UE (E NON SOLO)

Poi è arrivato ChatGPT. Il chatbot dalle sembianze umane, che lo scorso anno è diventato virale generando le proprie risposte alle richieste, ha spiazzato i responsabili politici dell’Ue. Il tipo di IA che ha alimentato ChatGPT non è stato menzionato nella bozza di legge e non è stato al centro delle discussioni sulla politica. I legislatori e i loro assistenti si sono tempestati di telefonate e messaggi per colmare la lacuna, mentre i dirigenti del settore tecnologico avvertivano che una regolamentazione troppo aggressiva avrebbe potuto mettere l’Europa in una posizione di svantaggio economico.

Ancora oggi, i legislatori europei stanno discutendo sul da farsi, mettendo a rischio la legge. “Saremo sempre in ritardo rispetto alla velocità della tecnologia”, ha dichiarato Svenja Hahn, membro del Parlamento Ue che ha partecipato alla stesura della legge sull’IA.

I LEGISLATORI STANNO GIÀ PERDENDO CONTRO L’IA

I legislatori e le autorità di regolamentazione a Bruxelles, a Washington e altrove stanno perdendo la battaglia per regolamentare l’Intelligenza Artificiale e stanno correndo per recuperare il ritardo, mentre cresce il timore che questa potente tecnologia possa automatizzare i posti di lavoro, aumentare la diffusione della disinformazione e infine sviluppare un proprio tipo di intelligenza. Le nazioni si sono mosse rapidamente per affrontare i potenziali pericoli dell’IA, ma i funzionari europei sono stati colti di sorpresa dall’evoluzione della tecnologia, mentre i legislatori statunitensi ammettono apertamente di averne compreso a malapena il funzionamento.

Il risultato è stato una miriade di risposte. In ottobre il presidente Biden ha emesso un ordine esecutivo sugli effetti dell’IA sulla sicurezza nazionale, mentre i legislatori discutono su quali misure adottare, se ce ne sono. Il Giappone sta elaborando linee guida non vincolanti per la tecnologia, mentre la Cina ha imposto restrizioni su alcuni tipi di IA. La Gran Bretagna ha dichiarato che le leggi esistenti sono adeguate per regolamentare la tecnologia. L’Arabia Saudita e gli Emirati Arabi Uniti stanno investendo denaro pubblico nella ricerca.

PERCHÉ È IMPOSSIBILE TENERE IL PASSO

Alla base delle azioni frammentate c’è un disallineamento fondamentale. I sistemi di IA avanzano in modo così rapido e imprevedibile che i legislatori e le autorità di regolamentazione non riescono a tenere il passo. Questo divario è stato aggravato da un deficit di conoscenza dell’IA nei governi, da burocrazie labirintiche e dal timore che troppe regole possano inavvertitamente limitare i benefici della tecnologia.

Anche in Europa, forse il regolatore tecnologico più aggressivo al mondo, l’IA ha lasciato perplessi i politici.

L’AI ACT DELL’UE È GIÀ PREISTORIA

L’Unione europea ha portato avanti la sua nuova legge, l’AI Act, nonostante le controversie su come gestire i produttori dei più recenti sistemi di intelligenza artificiale. L’accordo finale, atteso per mercoledì, potrebbe limitare alcuni usi rischiosi della tecnologia e creare requisiti di trasparenza sul funzionamento dei sistemi sottostanti. Ma anche se venisse approvato, non dovrebbe entrare in vigore prima di 18 mesi – una vita intera nello sviluppo dell’IA – e non è chiaro come verrà applicato.

“La giuria non ha ancora deciso se sia possibile regolamentare o meno questa tecnologia”, ha dichiarato Andrea Renda, ricercatore senior presso il Center for European Policy Studies, un think tank di Bruxelles. “C’è il rischio che questo testo finisca per essere preistorico”.

AZIENDE IA A BRIGLIA SCIOLTA

L’assenza di regole ha lasciato un vuoto. Google, Meta, Microsoft e OpenAI, che produce ChatGPT, sono stati lasciati liberi di controllarsi da soli mentre correvano per creare e trarre profitto da sistemi avanzati di intelligenza artificiale. Molte aziende, che preferiscono codici di condotta non vincolanti che consentono di accelerare lo sviluppo, stanno esercitando pressioni per ammorbidire i regolamenti proposti e mettere i governi l’uno contro l’altro.

Senza un’azione unitaria in tempi brevi, avvertono alcuni funzionari, i governi potrebbero rimanere ulteriormente indietro rispetto ai produttori di I.A. e alle loro scoperte. “Nessuno, nemmeno i creatori di questi sistemi, sa cosa saranno in grado di fare”, ha dichiarato Matt Clifford, consigliere del Primo Ministro britannico Rishi Sunak, che il mese scorso ha presieduto un vertice sulla sicurezza dell’IA con 28 Paesi. “L’urgenza deriva dal fatto che ci si chiede se i governi siano attrezzati per affrontare e mitigare i rischi”.

LE PRIME INIZIATIVE (A VUOTO) DELL’UE

A metà 2018, 52 accademici, informatici e avvocati si sono incontrati all’hotel Crowne Plaza di Bruxelles per discutere di intelligenza artificiale. I funzionari dell’Unione europea li avevano selezionati per fornire consulenza su questa tecnologia, che stava attirando l’attenzione per l’alimentazione delle auto senza conducente e dei sistemi di riconoscimento facciale.

Il gruppo ha discusso se ci fossero già abbastanza regole europee per proteggere la tecnologia e ha preso in considerazione potenziali linee guida etiche, ha detto Nathalie Smuha, una studiosa di diritto in Belgio che ha coordinato il gruppo.

Ma quando hanno discusso i possibili effetti dell’IA – tra cui la minaccia della tecnologia di riconoscimento facciale per la privacy delle persone – si sono resi conto che “c’erano tutte queste lacune legali, e cosa succede se le persone non seguono queste linee guida?”, ha detto.

Nel 2019, il gruppo ha pubblicato un rapporto di 52 pagine con 33 raccomandazioni, tra cui una maggiore supervisione degli strumenti di IA che potrebbero danneggiare gli individui e la società.

Il rapporto ha fatto il giro del ristretto circolo politico dell’Ue. Ursula von der Leyen, presidente della Commissione europea, ha inserito il tema tra le priorità della sua agenda digitale. Un gruppo di 10 persone è stato incaricato di sviluppare le idee del gruppo e di redigere una legge. Un’altra commissione del Parlamento europeo, il ramo co-legislativo dell’Ue, ha tenuto quasi 50 audizioni e riunioni per esaminare gli effetti dell’IA sulla sicurezza informatica, l’agricoltura, la diplomazia e l’energia.

LE PROPOSTE…

Nel 2020, i responsabili politici europei hanno deciso che l’approccio migliore era quello di concentrarsi sulle modalità di utilizzo dell’IA e non sulla tecnologia sottostante. L’IA non è intrinsecamente buona o cattiva, hanno detto, ma dipende da come viene applicata.

Così, quando la legge sull’IA è stata presentata nel 2021, si è concentrata sugli usi “ad alto rischio” della tecnologia, tra cui le forze dell’ordine, le ammissioni scolastiche e le assunzioni. Ha evitato in larga misura di regolamentare i modelli di IA che li alimentano, a meno che non siano elencati come pericolosi.

In base alla proposta, le organizzazioni che offrono strumenti di IA a rischio devono soddisfare determinati requisiti per garantire che i sistemi siano sicuri prima di essere utilizzati. I software di IA che creano video manipolati e immagini “deepfake” devono dichiarare che le persone stanno vedendo contenuti generati dall’IA. Altri usi sono stati vietati o limitati, come il software di riconoscimento facciale dal vivo. I trasgressori potrebbero essere multati del 6% del loro fatturato globale.

…E LE SUE FALLE

Alcuni esperti hanno avvertito che la bozza di legge non tiene sufficientemente conto delle future evoluzioni dell’IA. “Mi hanno inviato una bozza e io ho rispedito loro 20 pagine di commenti”, ha dichiarato Stuart Russell, professore di informatica all’Università della California, Berkeley, che ha fornito consulenza alla Commissione europea. “Tutto ciò che non rientrava nella loro lista di applicazioni ad alto rischio non sarebbe stato considerato, e la lista escludeva ChatGPT e la maggior parte dei sistemi di intelligenza artificiale”.

I leader dell’Ue non si sono lasciati scoraggiare. “L’Europa può non essere stata leader nell’ultima ondata di digitalizzazione, ma ha tutte le carte in regola per guidare la prossima”, ha dichiarato la Vestager presentando la politica in una conferenza stampa a Bruxelles.

ORA È DI NUOVO TUTTO IN DISCUSSIONE…

Diciannove mesi dopo è arrivato ChatGPT. Il Consiglio europeo aveva appena deciso di regolamentare i modelli di IA per scopi generali, ma il nuovo chatbot ha rimescolato il dibattito. Ha rivelato un “punto cieco” nel processo decisionale del blocco sulla tecnologia, ha detto Dragos Tudorache, un membro del Parlamento europeo che ha sostenuto prima del rilascio di ChatGPT che i nuovi modelli devono essere coperti dalla legge.

Questi sistemi di intelligenza artificiale di uso generale non solo alimentano i chatbot, ma possono imparare a svolgere molti compiti analizzando i dati raccolti da Internet e da altre fonti.

…E NON TUTTI SONO D’ACCORDO

I funzionari dell’Ue erano divisi su come rispondere. Alcuni sono stati cauti nell’aggiungere troppe nuove regole, soprattutto perché l’Europa ha faticato a far crescere le proprie aziende tecnologiche. Altri volevano limiti più severi. “Vogliamo stare attenti a non sottovalutare, ma anche a non esagerare e a non regolamentare troppo cose che non sono ancora chiare”, ha detto Tudorache, che è anche uno dei principali negoziatori dell’AI Act.

A ottobre, i governi di Francia, Germania e Italia, le tre maggiori economie dell’Unione europea, si erano dichiarati contrari a una regolamentazione rigorosa dei modelli di IA per scopi generali, nel timore di ostacolare le loro start-up tecnologiche nazionali. Altri membri del Parlamento europeo hanno affermato che la legge sarebbe inutile senza affrontare la tecnologia. Persistono anche le divisioni sull’uso della tecnologia di riconoscimento facciale.

I politici stavano ancora lavorando a compromessi mentre i negoziati sul linguaggio della legge entravano nella fase finale questa settimana. Un portavoce della Commissione europea ha dichiarato che la legge sull’IA è “flessibile rispetto agli sviluppi futuri e favorevole all’innovazione”.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Torna su