skip to Main Content

Intelligenza Artificiale

L’intelligenza artificiale va regolata come la bomba atomica?

Sam Altman di OpenAi propone regole internazionali e stringenti per i sistemi di intelligenza artificiale, ma non per tutti: solo quelli "superintelligenti", mentre gli altri dovrebbero essere lasciati liberi. Tutti i dettagli.

 

La settimana scorsa, in audizione al Congresso degli Stati Uniti, Sam Altman – è l’amministratore delegato di OpenAI, l’organizzazione che ha sviluppato il chatbot ChatGPT – ha spiegato in che modo il governo americano dovrebbe regolamentare le aziende che si occupano di intelligenza artificiale, come la sua. Ha proposto l’istituzione di una nuova agenzia dedicata alla supervisione dell’intelligenza artificiale e la concessione di licenze per lo sviluppo di modelli su larga scala; ha chiesto pure regole condivise sulla sicurezza di queste tecnologie e requisiti di revisione. È andato ben oltre tutto questo, in realtà, come ha fatto notare Quartz.

LA PROPOSTA DI OPENAI: CREARE UN’AGENZIA INTERNAZIONALE PER L’INTELLIGENZA ARTIFICIALE

In un post pubblicato sul blog di OpenAI lo scorso 22 maggio, intitolato Governance of Superintelligence, Altman e altri due co-fondatori dell’organizzazione – Greg Brockman e Ilya Suskever – suggeriscono la creazione di un organismo simile all’Agenzia internazionale per l’energia atomica, ma dedicato alla regolazione dell’intelligenza artificiale “superintelligente”.

L’Agenzia internazionale per l’energia atomica (IAEA) è un’agenzia intergovernativa che si occupa di promuovere a livello globale l’utilizzo pacifico dell’energia nucleare, migliorarne la sicurezza e contrastarne le applicazioni militari. Ha sede a Vienna e conta oltre centosettanta paesi membri.

OpenAI pensa che l’intelligenza artificiale molto avanzata – “superintelligente”, appunto – potrebbe rappresentare un “rischio esistenziale” per l’umanità, qualora andasse fuori controllo. Pertanto, dovrebbe essere soggetta a un’autorità internazionale che abbia l’autorità per ispezionarne i sistemi, richiedere verifiche, testarne gli standard di sicurezza ed eventualmente limitare la loro diffusione.

Come primo passo, Altman e soci invitano le aziende di intelligenza artificiale a stilare un elenco di requisiti che i governi dovrebbero implementare. Questa sorta di “Agenzia internazionale per l’intelligenza artificiale” si concentrerebbe poi sulla riduzione dei grandi fattori di rischio, quelli esistenziali, mentre i singoli paesi avranno la competenza su questioni più specifiche: per esempio la definizione di ciò che un modello di intelligenza artificiale è autorizzato a dire.

È DAVVERO UN’IDEA EFFICACE?

Quartz si è domandato se la proposta di OpenAI sia davvero efficace, e se la IAEA abbia finora avuto successo nel controllo della diffusione degli armamenti nucleari. Il giornale ricorda il caso della Corea del nord, che si unì all’agenzia nel 1974, ma in seguito ne espulse gli osservatori e alla fine la abbandonò nel 1994. Inoltre, nel 2019 l’allora direttore Yukiya Amano disse che la combinazione di tagli di bilancio e maggiore diffusione delle tecnologie nucleari nel mondo avevano ridotto le capacità dell’IAEA di effettuare ispezioni a livello internazionale.

In sostanza, una “Agenzia internazionale per l’intelligenza artificiale” potrebbe avere gli stessi problemi, e non riuscire a contrastare efficacemente gli usi malevoli della tecnologia.

VARI LIVELLI DI REGOLAZIONE

OpenAI ci tiene a specificare che non tutti i modelli di intelligenza artificiale comportano gli stessi rischi, e pertanto non dovrebbero venire soffocati dalle regole. Altman, Brockman e Suskever scrivono infatti che è “importante consentire alle aziende e ai progetti open-source di sviluppare modelli al di sotto di una soglia di capacità significativa” senza essere soggetti a regolamentazioni nella forma di licenze o revisioni. Non è chiaro, però, a quali modelli facciano riferimento nel concreto.

I tre aggiungono che gli attuali modelli di intelligenza artificiale possono comportare rischi “commisurati ad altre tecnologie di Internet” che la società è in grado di gestire. I sistemi superintelligenti, invece, sono preoccupanti – benché non ben definiti – perché “avranno un potere al di là di qualsiasi tecnologia creata”, a loro dire.

Back To Top