Skip to content

intelligenza artificiale aziende

Tutti vogliono regolamentare l’IA (ma ognuno a modo suo). Report Le Monde

Unione europea, Stati Uniti, Cina, ma anche Regno Unito e Giappone. Tutti hanno progetti per regolamentare l'intelligenza artificiale (IA) ma le strategie differiscono. L'articolo di Le Monde

 

OpenAI, Google, Microsoft e Meta non sono le uniche aziende che si sono lanciate nella corsa al ruolo di leader dell’intelligenza artificiale (AI). Anche i leader politici sono in competizione tra loro con iniziative volte a regolamentare – e promuovere – i software in grado di svolgere compiti umani, come i generatori di testi o immagini ChatGPT o Midjourney. Proprio martedì 24 ottobre, l’Unione europea spera di raggiungere un accordo politico sulla legge sull’intelligenza artificiale (IA) o, per lo meno, un compromesso sui punti principali di questa bozza di regolamento. Scrive Le Monde.

In seguito, l’1 e il 2 novembre, il primo ministro britannico Rishi Sunak accoglierà a Londra i rappresentanti di Stati e giganti tecnologici stranieri per un “vertice internazionale sulla sicurezza dell’IA”. Più tardi, a novembre, i Paesi del G7 si riuniranno per un incontro del “Processo di Hiroshima”, una discussione sull’IA avviata in Giappone a maggio.

Questa convergenza illustra un senso di urgenza politica per affrontare una tecnologia che è vista come molto promettente e allo stesso tempo preoccupante. Ma in questa frenesia – anche gli Stati Uniti, l’OCSE e la Cina sono attivi – le strategie differiscono.

L’AI ACT DELL’UE

Nel 2021, Bruxelles ha lanciato il primo grande progetto legislativo sull’IA al mondo: l’AI Act vieta alcuni usi (sistemi di rating sociale, tecniche di manipolazione subliminale, ecc.) e, per gli usi ritenuti “ad alto rischio” (guida autonoma, smistamento dei CV, concessione di prestiti bancari, ecc.), impone degli obblighi, come la riduzione al minimo del tasso di errore e dei bias discriminatori, la verifica della qualità dei dati di addestramento, ecc.

Per quanto riguarda la questione controversa dei modelli di intelligenza artificiale “generativi” (come quelli che generano testo o immagini), il compromesso tra il Parlamento europeo e gli Stati membri prevede di imporre obblighi ai modelli più grandi (al di sopra di una certa soglia di potenza di calcolo utilizzata per l’addestramento, o di un certo numero di utenti o clienti aziendali nell’Ue, secondo un documento citato da Contexte). I produttori di software dovrebbero inoltre garantire di aver adottato misure per rispettare il “copyright” dei contenuti utilizzati per la formazione.

IL REGNO UNITO IN LINEA CON I BIG DEL SETTORE

Londra, che vuole diventare una capitale dell’IA, ha scelto di concentrarsi sui rischi ritenuti più esistenziali: questi riguardano un “uso intenzionale dannoso” – per generare attacchi informatici o armi biologiche – o un “problema di controllo di un’IA” che potrebbe sfuggire al controllo umano, si legge in una bozza di dichiarazione congiunta del vertice, citata da Euractiv. La dichiarazione ricorda le lettere allarmistiche che chiedono di “mettere in pausa” l’IA o che la giudicano pericolosa quanto “le pandemie o la guerra nucleare”.

L’approccio del Regno Unito è anche in linea con la retorica dei giganti del settore: il summit si concentra sui “modelli di IA di frontiera”, l’espressione usata da OpenAI, Google, Microsoft e Anthropic quando, a giugno, hanno creato un’associazione di categoria dei più potenti produttori di software. Londra punta anche a creare una sorta di “IA Giec”, un gruppo di esperti ispirato a quello incaricato di informare i governi sui cambiamenti climatici – un’idea sostenuta anche in un op-ed per il Financial Times da diversi leader che lavorano nel campo dell’IA.

LA VIA DI MEZZO DEL G7

L’approccio del “codice di condotta”, discusso al G7, o gli “impegni volontari”, accettati sotto l’egida di Washington dai giganti del settore a giugno, seguono una via di mezzo: non vincolante, come quello di Londra, ma generalista, come quello di Bruxelles (i testi europei e americani richiedono anche che i contenuti generati dall’IA siano rilevabili).

È POSSIBILE TROVARE DEI PUNTI IN COMUNE?

Tutte queste strategie sono complementari o si escludono a vicenda? I leader della Francia (almeno il ministro del Digitale Jean-Noël Barrot) e dell’Europa (la commissaria Vera Jourova e persino la presidente Ursula Von der Leyen) hanno comunque deciso di andare a Londra, ritenendo che l’approccio ai rischi estremi sia complementare a quello dell’AI Act.

Altri sono più critici: pur non vedendo alcuna “contraddizione” tra l’iniziativa britannica e l’AI Act, l’eurodeputato Dragos Tudorache (Renew) ritiene che “gli impegni volontari non siano sufficienti, come abbiamo visto con i social network”. “Le grandi imprese hanno interesse a concentrare la conversazione sui rischi esistenziali e lontani dell’IA, perché ciò consente loro di distogliere l’attenzione da problemi più banali e immediati”, aggiunge il correlatore della legge sull’IA.

IL RUOLO DELLE LOBBY NELLA REGOLAMENTAZIONE DELL’IA

Il dibattito sulla regolamentazione dei modelli di IA generici sta influenzando anche l’AI Act: la lobby delle imprese digitali Numeum – come il presidente Emmanuel Macron e la start-up francese Mistral AI – ha evidenziato il rischio di creare una “camicia di forza pericolosa per l’innovazione”, mentre Adrienne Williams, di DAIR, una ONG di ricerca sull’etica dell’IA, si rammarica del fatto che la versione del Parlamento europeo, che imponeva regole più severe per i modelli di tutte le dimensioni, sia stata “annacquata”.

Per il direttore di Meta Research Yann LeCun, concentrare il dibattito sui pericoli per la sicurezza nazionale derivanti dalle future “superintelligenze” prodotte dalle grandi aziende minaccerebbe anche l’innovazione aperta e la pubblicazione di modelli open source, cari a Meta e alla start-up Hugging Face. “Il dibattito sui rischi esistenziali è prematuro finché non avremo un sistema che si avvicina all’intelligenza di un semplice gatto”, ha dichiarato LeCun al FT.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Torna su