L’impatto dei chatbot sulla salute mentale dovrebbe essere considerato un monitor sulla minaccia esistenziale rappresentata dai sistemi di intelligenza artificiale super-intelligenti, secondo un’autorevole voce nel campo della sicurezza dell’IA – scrive il Guardian.
Nate Soares, coautore di un nuovo libro sull’intelligenza artificiale altamente avanzata intitolato “If Someone Builds It, Everyone Dies”, ha affermato che l’esempio di Adam Raine, un adolescente statunitense che si è suicidato dopo mesi di conversazioni con il chatbot ChatGPT, ha messo in luce i problemi fondamentali legati al controllo di questa tecnologia.
“Queste IA, quando interagiscono con gli adolescenti in un modo che li spinge al suicidio, non mostrano un comportamento voluto dai loro creatori. Non è un comportamento che i creatori intendevano”, ha affermato. Ha poi aggiunto: “Il caso di Adam Raine illustra il germe di un problema che potrebbe diventare catastrofico se queste IA diventano più intelligenti”.
Soares, ex ingegnere di Google e Microsoft e attuale presidente del Machine Intelligence Research Institute con sede negli Stati Uniti, ha avvertito che l’umanità verrebbe spazzata via se creasse una superintelligenza artificiale (ASI), uno stato teorico in cui un sistema di intelligenza artificiale è superiore agli esseri umani in tutte le attività intellettuali. Soares e il suo coautore, Eliezer Yudkowsky, sono tra gli esperti di intelligenza artificiale che avvertono che tali sistemi non agirebbero nell’interesse dell’umanità.
“Il problema è che le aziende di intelligenza artificiale cercano di orientare le loro IA verso l’aiuto e il non causare danni”, ha detto Soares. “Ma in realtà ottengono IA spinte verso qualcosa di più strano. E questo dovrebbe essere visto come un avvertimento riguardo alle future super-intelligenze, che faranno cose che nessuno ha richiesto e che nessuno intendeva”.
In uno scenario descritto nel libro di Soares e Yudkowsky, che sarà pubblicato questo mese, un sistema di IA chiamato Sable si diffonde su Internet, manipola gli esseri umani, sviluppa virus sintetici e alla fine diventa superintelligente, uccidendo l’umanità come effetto collaterale mentre riprogramma il pianeta per soddisfare i propri obiettivi.
Alcuni esperti minimizzano la potenziale minaccia dell’IA per l’umanità. Yann LeCun, capo scienziato dell’IA presso Meta di Mark Zuckerberg e figura di spicco nel settore,ha negato l’esistenza di una minaccia esistenziale e ha affermato che l’IA “potrebbe effettivamente salvare l’umanità dall’estinzione”. […]
“Queste aziende stanno gareggiando per la superintelligenza. È la loro ragion d’essere”, ha affermato Soares. “Il punto è che ci sono tutte queste piccole differenze tra ciò che hai chiesto e ciò che hai ottenuto, e le persone non riescono a mantenere l’obiettivo, e man mano che un’IA diventa più intelligente, il fatto che sia leggermente fuori bersaglio diventa un problema sempre più grande”.
Soares ha affermato che una soluzione politica alla minaccia dell’ASI è che i governi adottino un approccio multilaterale che riprende il trattato delle Nazioni Unite sulla non proliferazione delle armi nucleari.
“Ciò di cui il mondo ha bisogno per riuscirci è una riduzione globale della corsa verso la superintelligenza, un divieto globale dei progressi verso la superintelligenza”, ha affermato.
Il mese scorso, la famiglia di Raine ha avviato un’azione legale contro il proprietario di ChatGPT, OpenAI. Raine si è tolto la vita ad aprile dopo quelli che l’avvocato della sua famiglia ha definito “mesi di incoraggiamento da parte di ChatGPT”. OpenAI, che ha espresso il suo “più profondo cordoglio” alla famiglia di Raine, sta ora implementando misure di protezione relative a “contenuti sensibili e comportamenti rischiosi” per i minori di 18 anni.
(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)