Uno scoop del Financial Times ha rivelato come nel campo prodigioso quanto delicato dell’Intelligenza Artificiale (IA) si stia sviluppando un embrione di cooperazione in materia di sicurezza tra quelle due stesse superpotenze americana e cinese che competono ferocemente proprio nel campo delle tecnologie avanzate. Ecco cosa ha svelato il quotidiano sulle due riunioni riservate svoltesi a Ginevra con la partecipazione di esperti e scienziati dei due Paesi e l’approvazione dei rispettivi governi.
Incontri ravvicinati sull’IA a Ginevra
Secondo le fonti del Financial Times, tra luglio e ottobre dello scorso anno a Ginevra sarebbero state indette almeno due riunioni in cui scienziati ed esperti di OpenAI, Anthropic e Cohere si sarebbero confrontati con alcuni rappresentanti della Tsinghua University e di altre istituzioni statali cinesi sui rischi derivanti dall’IA.
Che cosa si è discusso?
Chi ha partecipato a meeting organizzati dallo Shaikh Group e approvati dai governi di Washington e Pechino come da quello di Londra ha riferito al giornale che l’obiettivo primario degli abboccamenti era quello di trovare un approccio scientifico sicuro per sviluppare applicazioni di IA ancora più sofisticate.
Nel corso dei colloqui gli esperti americani e cinesi avrebbero discusso sulle aree in cui è immaginabile e desiderabile una cooperazione tecnica e si sarebbero addirittura spinti a sondare idee di policy sull’IA che si sono riflesse nelle discussioni intrattenute nei due più importanti appuntamenti internazionali sul tema avvenuti l’anno scorso, quello convocato dal Consiglio di Sicurezza Onu a luglio e il summit organizzato dal governo britannico a novembre.
Le parole del capo dello Shaikh Group
Confermando la rivelazione, il chief executive dello Shaikh Group – organizzazione privata nata per promuovere il dialogo tra attori a rischio di conflitto – ha spiegato al Ft che “abbiamo colto l’opportunità di far incontrare gli attori chiave di Usa e Cina che lavorano sull’IA”.
“Il nostro scopo – precisa Salman Shaikh – era di sottolineare le vulnerabilità, i rischi e le opportunità sottesi allo sviluppo di modelli di IA che siano condivisi attraverso il pianeta. Riconoscere questo fatto può, a nostro avviso, porre le fondamenta per un lavoro scientifico collaborativo che conduca allo sviluppo di standard globali di sicurezza”.
La conferma cinese
Questo embrione di cooperazione ha trovato parole indirette di conferma in una dichiarazione dell’ambasciata cinese in Gran Bretagna, secondo la quale “la Cina appoggia gli sforzi per discutere la governance dell’IA e per sviluppare le necessarie cornici, regole e standard sulla base di un ampio consenso”.
Pechino, aggiunge la dichiarazione, “è pronta a portare avanti comunicazioni, scambi e cooperazione pratica con varie parti sulla governance globale dell’IA, e assicura che l’IA si sviluppi in un modo che faccia avanzare la civiltà umana”.
Il significato degli incontri secondo il Ft
Il quotidiano della City sottolinea come i colloqui di Ginevra abbiano rappresentato un raro segno di cooperazione sino-americana in quello stesso campo delle tecnologie di punta che vede le due superpotenze impegnate in uno scontro frontale e senza esclusione di colpi, come dimostra il bando Usa all’export dei chip più avanzati prodotti da società come Nvidia che sono necessari per sviluppare i sofisticati software per l’IA.
I potenziali rischi esistenziali per l’umanità posti dall’IA e denunciati da tante parti starebbero dunque spingendo due protagonisti assoluti di questa innovazione a sviluppare in modo concertato protocolli di sicurezza considerati di comune interesse.
L’appello sulla gestione dell’IA
Viene ricordata tra l’altro la dichiarazione comune firmata a novembre da scienziati cinesi e accademici occidentali impegnati nello sviluppo dell’IA con cui hanno ammonito del “rischio esistenziale all’umanità” posto dai modelli avanzati di IA invocandone una stretta regolamentazione.
C’era anche il nome del più famoso informatico cinese, Andrew Yao, in calce a quell’appello che chiedeva tra le altre cose la creazione di un’autority internazionale, l’inclusione di procedure di “shutdown” istantaneo e l’obbligo per gli sviluppatori di allocare almeno il 30% del proprio budget per la ricerca in studi sulla sicurezza dell’IA.