OpenAI, la software house che ha realizzato ChatGpt, secondo un’inchiesta del Time, ha fatto attività di lobbying in Europa con l’obiettivo di annacquare l’AI Act, ovvero la regolamentazione Ue sull’intelligenza artificiale (IA) con cui, tra entusiasmo e terrore, quasi tutti i settori iniziano a fare i conti.
È il caso del tabloid tedesco Bild che si prepara a sostituire con l’IA centinaia di lavoratori dello staff editoriale.
IL DIETRO LE QUINTE DEL VIAGGIO DI ALTMAN IN GIRO PER IL MONDO
L’amministratore delegato di OpenAI, Sam Altman, ha trascorso l’ultimo mese in giro per il mondo, incontrando i capi di governo per parlare della regolamentazione dell’IA.
“Ma dietro le quinte – scrive il Time -, OpenAI ha esercitato pressioni affinché elementi significativi della più completa legislazione sull’IA al mondo – la legge sull’IA dell’Unione europea – venissero attenuati in modo da ridurre l’onere normativo per l’azienda”. Il quotidiano britannico lo afferma dopo aver visionato i documenti sull’impegno della software house con i funzionari Ue.
Stando alle indiscrezioni, “in diversi casi, OpenAI ha proposto emendamenti che sono stati poi apportati al testo finale della legge, che è stata approvata dal Parlamento europeo il 14 giugno e che ora procederà a un ultimo ciclo di negoziati prima di essere finalizzata a gennaio”.
GLI SCONTI CHIESTI DA OPENAI (E NON SOLO)
Come ha scritto anche Start, l’AI Act prevede quattro livelli di rischio – basso, limitato, alto, inaccettabile – in base ai quali classificare i sistemi di intelligenza artificiale.
Nel 2022, secondo il Time, OpenAI ha ripetutamente discusso con i funzionari europei del fatto che la legge “non dovrebbe considerare i suoi sistemi di IA per scopi generali – tra cui GPT-3, il precursore di ChatGpt, e il generatore di immagini Dall-E 2 – come ‘ad alto rischio’, una designazione che li sottoporrebbe a severi requisiti legali, tra cui la trasparenza, la tracciabilità e la supervisione umana”.
Attualmente, i chatbot come ChatGpt rientrano nella categoria rischio ‘limitato’, per cui sono richiesti solo degli obblighi di trasparenza.
“Di per sé, GPT-3 non è un sistema ad alto rischio”, afferma OpenAI in un documento inedito citato dal Time e intitolato OpenAI White Paper on the European Union’s Artificial Intelligence Act, che era stato inviato dalla società ai funzionari della Commissione e del Consiglio dell’Ue nel settembre 2022. Qui, tuttavia, si legge anche: “ma [possiede] capacità che possono potenzialmente essere impiegate in casi d’uso ad alto rischio”.
Anche Microsoft, che ha investito 10 miliardi di dollari in OpenAI, e Google avevano precedentemente esercitato simili pressioni.
COSA SI VOCIFERA A BRUXELLES
“Hanno ottenuto ciò che avevano chiesto”, ha dichiarato al quotidiano britannico Sarah Chander, consulente senior per le politiche dell’European Digital Rights ed esperta della legge, che ha esaminato il documento di OpenAI.
Il Time afferma inoltre che, tre mesi prima dell’invio del white paper, tre dipendenti di OpenAI hanno incontrato per la prima volta a Bruxelles i funzionari della Commissione europea, i quali ha riferito che il messaggio tratto da quell’incontro era che “OpenAI, come altre aziende Big Tech, temeva una ‘eccessiva regolamentazione’ che avrebbe potuto avere un impatto sull’innovazione dell’IA”.
Le fonti hanno poi precisato che i dipendenti della software house “non hanno detto esplicitamente che OpenAI dovrebbe essere soggetta a normative meno severe” e non hanno nemmeno indicato “come dovrebbe essere una buona regolamentazione”.
Per Daniel Leufer, analista politico che si occupa di IA presso l’ufficio di Bruxelles di Access Now, l’atteggiamento di OpenAI “è molto confuso perché si rivolgono ai politici dicendo: ‘Per favore, regolamentateci’, si vantano di tutte le cose [sulla sicurezza] che fanno, ma non appena gli rispondono: ‘Bene, vi prendiamo in parola e fissiamo questo come limite normativo’, loro dicono di no”.
LE ALTRE RICHIESTE DI OPENAI
Sempre nel white paper, OpenAI sostiene anche la necessità di consentire ai fornitori di IA di aggiornare rapidamente i propri sistemi per motivi di sicurezza, senza dover prima sottoporli a una valutazione potenzialmente lunga da parte dei funzionari Ue.
Viene, inoltre, richiesto di prevedere delle eccezioni che permettano alcuni usi dell’IA generativa nel campo dell’istruzione e dell’occupazione, settori che secondo la prima bozza della legge dovrebbero essere considerati casi d’uso dell’IA ad ‘alto rischio’.
Dopo aver ha condiviso queste preoccupazioni, alla fine è stata aggiunta un’esenzione alla legge che, secondo Leufer, “soddisfa molto i desideri di OpenAI di rimuovere dal campo di applicazione i sistemi che non hanno un impatto materiale o che semplicemente aiutano il processo decisionale [umano]”.