Skip to content

rischi intelligenza artificiale

Tutti i subbugli dentro OpenAI, Google DeepMind e Anthropic contro l’IA

L'evoluzione dell'intelligenza artificiale pone “gravi rischi”. Lo affermano ex, ma anche attuali, dipendenti di OpenAI, Google DeepMind e Anthropic in una lettera aperta, appoggiata anche dai padrini dell'IA. Tutti i dettagli

 

Un nuovo appello mette in guardia sui “gravi rischi” dell’evoluzione dell’intelligenza artificiale (IA). Questa volta si tratta della lettera aperta di un gruppo di ex, ma anche attuali, dipendenti delle principali aziende di IA: OpenAI, Google DeepMind e Anthropic.

In particolare, 13 firmatari, di cui alcuni hanno voluto mantenere l’anonimato, denunciano le società di IA di mancanza di supervisione e trasparenza e chiedono, inoltre, maggiori tutele per i whistleblower, ovvero coloro che denunciano o riferiscono di attività illecite.

QUALI RISCHI (ESTINZIONE UMANA COMPRESA) PONE L’IA

Nel loro appello, gli esperti riconoscono il potenziale dell’intelligenza artificiale nel generare “benefici senza precedenti all’umanità”, tuttavia, si dicono anche consapevoli dei “gravi rischi posti da queste tecnologie”.

“Questi – si legge nella lettera – vanno dall’ulteriore rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita di controllo dei sistemi autonomi di IA che potrebbero portare all’estinzione umana. Le stesse aziende di IA hanno riconosciuto questi rischi, così come i governi di tutto il mondo e altri esperti di IA”.

La possibilità che l’IA conduca all’estinzione dell’essere umano era già stata segnalata alla fine del 2023 nel documento di un gruppo di ricercatori delle università di Oxford e di Berkeley, che avevano coinvolto in uno studio 2.778 esperti del settore tech per provare a comprendere l’impatto dell’IA sulla società. Quasi la metà di loro aveva sostenuto che esiste un 5% di possibilità che l’IA diventi tanto incontrollabile da causare l’estinzione umana.

LE ACCUSE ALLE AZIENDE DI IA

I dipendenti, attuali o ex, di OpenAI, Google DeepMind e Anthropic si augurano che tali rischi possano essere adeguatamente mitigati con una guida sufficiente da parte della comunità scientifica, dei politici e del pubblico. Tuttavia, ritengono che “le aziende produttrici di IA hanno forti incentivi finanziari per evitare una supervisione efficace” e non credono che le strutture di corporate governance su misura “siano sufficienti a cambiare questa situazione”.

Le grandi aziende di IA, infatti, stando alla lettera, “possiedono informazioni sostanziali non pubbliche sulle capacità e sui limiti dei loro sistemi, sull’adeguatezza delle loro misure di protezione e sui livelli di rischio di diversi tipi di danni”, ma “attualmente hanno solo un debole obbligo di condividere alcune di queste informazioni con i governi e nessuna con la società civile”.

Per questo motivo, gli esperti credono che non si possa fare affidamento sul fatto che tutti condividano volontariamente tali informazioni.

WHISTLEBLOWER IN OSTAGGIO

Ecco perché, come dichiarato nella missiva, le poche persone a poter informare la società sono gli attuali e gli ex dipendenti che, però, devono sottostare ad ampi accordi di riservatezza che gli impediscono di esprimere le loro preoccupazioni, se non con le aziende stesse, che tuttavia, potrebbero non voler affrontare questi problemi.

A tal proposito chiedono quindi maggiori tutele per i whistleblower, che hanno ragione di temere “varie forme di ritorsione”.

Per esempio, Daniel Kokotajlo, uno dei sette autori della lettera, è un ricercatore che ha lasciato OpenAI il mese scorso “per aver perso la fiducia nel fatto che si sarebbe comportato in modo responsabile”. Scegliere, però, di non rispettare l’accordo di riservatezza per poter criticare apertamente l’azienda, gli è costato il suo capitale, come ha raccontato sul suo sito.

LA RISPOSTA DI OPENAI

OpenAI, fa sapere il Guardian, ha difeso le sue pratiche in un comunicato, affermando di avere a disposizione vie come una linea telefonica per segnalare problemi all’interno dell’azienda e di non rilasciare nuove tecnologie fino a quando non ci sono adeguate garanzie. Google, invece, non ha ancora risposto a una richiesta di commento.

Tuttavia, la scorsa settimana, Vox ha riferito che OpenAI ha fatto firmare ai dipendenti che lasciavano l’azienda documenti estremamente restrittivi di non divulgazione e di non dissociazione, pena la perdita di tutte le azioni acquisite. Sam Altman si è poi scusato in seguito alla notizia, affermando che avrebbe modificato le procedure di fine rapporto.

TEMPISMO CASUALE?

Il Guardian fa poi notare che la lettera arriva dopo che due dipendenti di spicco di OpenAI, il cofondatore Ilya Sutskever e il ricercatore chiave in materia di sicurezza Jan Leike, si sono dimessi dall’azienda il mese scorso. Leike, dopo aver lasciato il suo incarico, ha dichiarato che OpenAI ha abbandonato la cultura della sicurezza a favore di “prodotti luccicanti”.

La lettera, inoltre, affermando che le aziende non hanno l’obbligo di essere trasparenti sulle loro operazioni, secondo il quotidiano britannico, riprende alcune dichiarazioni di Leike e ha ricevuto l’approvazione da parte dei “padrini” dell’IA – Yoshua Bengio e Geoffrey Hinton – e dallo scienziato informatico Stuart Russell, che hanno contribuito alla ricerca strumentale che ha portato alla creazione dell’IA moderna e sono poi diventati alcuni dei suoi maggiori critici.

Torna su