Dovrebbero intervenire sugli algoritmi che potrebbero influenzare o distorcere decisioni che riguardano la vita quotidiana di miliardi di persone? Che dire del rischio che i chatbot, come ChatGPT, aumentino la produzione di disinformazione online o portino all’uso improprio di grandi quantità di dati personali? E cosa dovrebbero fare di fronte all’allarme che i computer potrebbero presto raggiungere un livello di intelligenza tale da sfuggire al controllo dei loro creatori, con conseguenze potenzialmente disastrose per l’umanità?
La tecnologia si muove così velocemente – e i rischi potenziali sono, in alcuni casi, così poco conosciuti – che c’è ancora poco accordo su un’agenda normativa. Scrive il Financial Times.
Quali sono le questioni relative all’IA che le autorità di regolamentazione stanno esaminando per prime?
L’Unione Europea era sulla buona strada per finalizzare una legge sull’IA, la prima nel suo genere, che avrebbe controllato, o addirittura vietato, i sistemi di IA presumibilmente “ad alto rischio”, come quelli utilizzati per prendere decisioni su domande di lavoro, prestiti o trattamenti sanitari. Poi è esplosa la ChatGPT mania, ovvero l’enorme interesse pubblico per il chatbot generativo di IA di OpenAI, disponibile gratuitamente.
I legislatori hanno rapidamente modificato i loro piani per includere i cosiddetti modelli di base, come il grande modello linguistico che sta alla base di ChatGPT.
Le regole dell’UE obbligherebbero le aziende a rivelare su quali dati sono stati addestrati questi modelli e potrebbero renderle responsabili di un uso improprio della tecnologia, anche quando non controllano le applicazioni finali.
Tuttavia, Patrick Van Eecke, co-presidente della practice globale di cyber, dati e privacy dello studio legale Cooley, ritiene che Bruxelles si sia mossa troppo presto per tentare di regolamentare una tecnologia che è ancora “un bersaglio mobile”, riflettendo un pregiudizio culturale verso una regolamentazione affrettata. “Ci piace regolamentare la realtà ancor prima che diventi realtà”, afferma, facendo eco a un’opinione ampiamente diffusa nel mondo dell’IA.
Molti dirigenti tecnologici statunitensi hanno però una spiegazione diversa. La vedono come una deliberata mossa protezionistica dell’UE, che impone limitazioni a un gruppo di aziende prevalentemente americane che dominano il settore dell’IA.
La regolamentazione dell’UE in materia di IA diventerà un modello per il resto del mondo?
È quello che è successo con la legislazione sulla protezione dei dati del blocco, ed è un potenziale sviluppo che preoccupa le aziende tecnologiche statunitensi. I sostenitori della legge europea affermano che sarà applicata in modo flessibile per riflettere l’evoluzione degli standard e dei progressi tecnologici. Ma i critici sostengono che l’esperienza dimostra che Bruxelles ha un approccio più dogmatico e che le regole introdotte ora potrebbero limitare l’evoluzione della tecnologia.
Alcune aziende europee sono d’accordo. In una lettera inviata alla Commissione europea a giugno, 150 grandi aziende europee hanno avvertito che la legge potrebbe ostacolare l’economia del blocco impedendo alle aziende di utilizzare liberamente importanti tecnologie di intelligenza artificiale.
La versione finale della legge deve essere elaborata in un negoziato a tre tra Parlamento, Commissione e Consiglio degli Stati membri, il che significa che c’è ancora la possibilità di modifiche.
Le aziende di IA non chiedono una regolamentazione?
L’industria dell’IA ha imparato dai contraccolpi contro i social media che non è conveniente evitare di regolamentare tecnologie che possono avere un impatto sociale e politico significativo.
Ma questo non vuol dire che sia d’accordo con i piani dell’UE. Sam Altman, capo di OpenAI e volubile sostenitore della regolamentazione sull’IA, ha dichiarato al FT che la sua azienda potrebbe essere costretta ad abbandonare del tutto l’UE se le regole finali sull’IA saranno troppo severe. Il clamore suscitato dalle sue parole lo ha portato a fare rapidamente marcia indietro ma, dietro le quinte, le preoccupazioni degli Stati Uniti non si sono attenuate.
La disponibilità delle grandi aziende tecnologiche a chiedere una regolamentazione ha anche suscitato il sospetto che la vedano come un modo per consolidare la loro posizione sul mercato dell’IA. Costi e burocrazia più elevati potrebbero rendere più difficile l’ingresso di nuovi concorrenti.
Qual è l’alternativa all’approccio dell’UE?
Prima di decidere nuove leggi, molti Paesi stanno esaminando attentamente il modo in cui le normative esistenti si applicano alle applicazioni basate sull’IA.
Negli Stati Uniti, ad esempio, la Federal Trade Commission ha aperto un’indagine su ChatGPT, utilizzando i suoi poteri esistenti. Una delle sue preoccupazioni è che ChatGPT aspiri i dati personali e talvolta li utilizzi per diffondere informazioni false e dannose sulle persone comuni.
A differenza delle loro controparti europee, i legislatori statunitensi hanno intrapreso un’ampia revisione dell’IA che cerca esplicitamente di bilanciare i benefici della tecnologia con i suoi potenziali danni. Il leader della maggioranza del Senato degli Stati Uniti, Chuck Schumer, ha chiesto una serie di briefing e forum di esperti per le commissioni senatoriali più importanti, per aiutarle a decidere quali aspetti dell’IA debbano essere regolamentati.
Holly Fechner, co-presidente del gruppo di settore tecnologico presso lo studio legale Covington & Burling, ha dichiarato: “Il significativo bipartitismo al Congresso sulla concorrenza degli Stati Uniti con la Cina” rende l’approccio di Schumer “un messaggio vincente – e segnala che gli Stati Uniti si stanno muovendo in una direzione diversa rispetto all’Europa”.
Se i governi non regolamentano ora, la corsa all’IA non diventerà un pericoloso liberi tutti?
Molte aziende tecnologiche sostengono che lo sviluppo dell’IA dovrebbe rispecchiare i primi tempi di Internet: le autorità di regolamentazione si sono tenute in disparte, lasciando che l’innovazione fiorisse, e sono intervenute solo in un secondo momento, se necessario.
Ci sono già segnali che indicano che nuovi standard industriali e accordi sulle migliori pratiche in materia di IA stanno iniziando a prendere piede, anche senza una regolamentazione esplicita. Negli Stati Uniti, ad esempio, l’industria ha lavorato con il National Institute for Standards and Technology per codificare i modi migliori per progettare, addestrare e distribuire i sistemi di IA.
Ci si è anche impegnati a rivelare di più su come funzionano i modelli di grandi dimensioni e su quali dati sono stati utilizzati per addestrarli, anche se non è chiaro quanto le aziende saranno disponibili. Nel frattempo, non mancano le proposte di nuovi sistemi di “watermarking” per verificare se i contenuti online sono stati prodotti da un sistema generativo di IA piuttosto che da una persona.
L’assenza di progressi su questi e altri fronti accelererebbe notevolmente le richieste di regolamentazione.
Alcune persone che sviluppano l’IA dicono che potrebbe distruggere l’umanità: non è questo un motivo per regolamentare immediatamente la materia?
Nessuno nell’industria tecnologica pensa che gli attuali sistemi di IA rappresentino una minaccia esistenziale per l’umanità e non c’è accordo su quando – se mai – la tecnologia potrebbe arrivare a questo punto. Tuttavia, all’inizio di quest’anno, una lettera aperta firmata da molti tecnologi ha chiesto una moratoria di sei mesi sul lavoro sui sistemi più avanzati, per avere il tempo di elaborare nuovi protocolli di sicurezza.
Sebbene i governi abbiano iniziato a prendere in considerazione la questione, sarebbero necessari nuovi accordi internazionali per cercare di controllare la diffusione dell’IA pericolosa. Anche in questo caso, tali sforzi potrebbero essere impraticabili, data l’ampia disponibilità di risorse informatiche e di set di dati necessari per addestrare i sistemi di IA.
Per ora, le stesse aziende che stanno guidando la corsa all’IA affermano di essere anche in prima linea nel tentativo di controllarla. A luglio OpenAI ha dichiarato di aver creato un team interno per iniziare la ricerca di modi per controllare i computer “superintelligenti”, che secondo lei potrebbero arrivare entro questo decennio. La soluzione proposta è un nuovo sistema di intelligenza artificiale per controllare l’intelligenza artificiale.
(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)