Skip to content

Perché OpenAI cerca un nuovo responsabile per la sicurezza e la salute mentale

Con l'intelligenza artificiale alla sbarra, coinvolta anche in casi di suicidi dell'utenti che si confidavano quotidianamente con i chatbot, OpenAi lancia un segnale e apre una posizione per un responsabile per la sicurezza e la salute mentale che si concentri soprattutto sul rapporto tra gli algoritmi e i ragazzi. L'annuncio veicolato direttamente dall'account X di Altman che più volte è stato additato di essere troppo focalizzato sul rilascio di nuove versioni del software e poco attento ai temi etici

Donald Trump ha blindato la materia: qualunque cosa accada solo la Casa Bianca potrà di fatto decidere sull’Ai, creando così una deregulation federale finalizzata a non imbrigliare un comparto che gli Usa vogliono sottrarre alla Cina. Ma non basta: fioccano troppe cause legate al possibile impatto dell’Intelligenza artificiale sulla salute dei ragazzi. Le più rumorose a livello mediatico, nemmeno a dirlo, sono quelle nelle quali l’esito è stato un suicidio suggerito da un chatbot . I governatori dei 50 Stati avranno anche le mani legate sulla materia, ma da tempo analisti e investitori ritenevano non più rinviabile un segnale che dimostrasse che tutto questo trambusto non venisse ulteriormente ignorato dai piani alti delle principali software house del settore. E quel segnale ora è arrivato.

ANCHE GLI ESPERTI DI AI TEMONO PER LA SALUTE MENTALE DEGLI UTENTI

La scorsa estate il responsabile dell’intelligenza artificiale di Microsoft nonché co-founder della startup britannica di AI DeepMind oggi nel portafogli di Alphabet (Google), Mustafa Suleyman, in una serie di post su X, aveva scritto che le Intelligenze artificiali “apparentemente coscienti” – ovvero strumenti che sembrano essere senzienti – lo tengono sveglio la notte e che hanno un impatto sociale, pur non essendo realmente coscienti nel senso umano del termine. “Non c’è alcuna prova che l’IA sia cosciente oggi – ha affermato -. Ma se le persone la percepiscono come tale, finiranno per credere che quella percezione sia la realtà”.

“Collegata a questo fenomeno – si legge sul sito della Bbc – è l’emergere di una nuova condizione chiamata “psicosi da IA”: un termine non clinico che descrive casi in cui le persone fanno sempre più affidamento su chatbot come ChatGPT, Claude o Grok, fino a convincersi che qualcosa di immaginario sia reale. Esempi comuni includono: credere di aver sbloccato un aspetto segreto del chatbot, instaurare una relazione romantica con l’IA, o arrivare a pensare di avere poteri sovrumani”.

SAM ALTMAN CORRE AI RIPARI

Accusato a più riprese di pensare al lucro (secondo un articolo del New York Times, che cita un documento condiviso con i potenziali investitori, OpenAI punta ad aumentare i propri ricavi fino a 100 miliardi di dollari all’anno) e porre in secondo piano le questioni etiche, soprattutto da alcuni tra i tanti talenti che hanno abbandonato nel corso degli anni l’azienda di Sam Altman (i co-founder Ilya Sutskever e Andrej Kaparthy sono stati frettolosamente seguiti da altre figure chiave: Mira Murati, Bob McCrew, Barret Zoph e Tim Brooks, responsabile di Sora, il generatore di video AI di OpenAi), ora l’imprenditore più in vista della Silicon Valley vuole mostrare il suo lato umano.

Del resto nell’ambiente risuonano ancora le parole pronunciate da un altro super esperto che ha sbattuto la porta di OpenAi alle proprie spalle: “Ero a capo del super allineamento di OpenAI e abbandonare questo lavoro è una delle cose più difficili che abbia mai fatto – aveva scritto Jan Leike su X – perché abbiamo bisogno urgentemente di capire come si possono guidare e controllare sistemi di IA più intelligenti di noi”.

POSIZIONE APERTA, COMPENSO: 555MILA DOLLARI L’ANNO

Non è casuale, allora, che il particolare annuncio di lavoro venga veicolato, sempre via X, proprio da Altman: “Stiamo assumendo un Responsabile della Preparazione – l’avviso nella bacheca del babbo di ChatGpt. Si tratta di un ruolo fondamentale in un momento cruciale; i modelli stanno migliorando rapidamente e sono ora in grado di fare grandi cose, ma stanno anche iniziando a presentare alcune sfide concrete. Il potenziale impatto dei modelli sulla salute mentale è stato un aspetto di cui abbiamo avuto un’anteprima nel 2025; stiamo solo ora assistendo al miglioramento dei modelli in termini di sicurezza informatica, tanto da iniziare a individuare vulnerabilità critiche”. La Ral supera il mezzo miliardo di dollari annui.

Nelle aule di tribunale del resto rimbalzano da parte dei legali dei querelanti le medesime accuse che tra le righe si leggevano in molti degli addii eclatanti subiti dall’azienda: una presunta frettolosità con cui l’azienda avrebbe reso disponibili gli aggiornamenti di ChatGpt, senza adeguate misure di sicurezza di contorno. I detrattori sottolineano come Gpt-4o, accusato di essere eccessivamente adulatore e lusinghiero, sia stato ritirato poco tempo dopo il rilascio.

La software house contempla già un team dedicato a studiare tali questioni, ma a luglio del 2024 il responsabile Aleksander Madry era stato sostituito dal duo Joaquin Quinonero Candela e Lilian Weng e con l’uscita di quest’ultima dall’azienda nel novembre dello stesso anno e il passaggio di Candela alle risorse umane, l’unità era rimasta senza un riferimento. Ma a quanto pare non era stata una priorità rintracciarlo, visto il tempo trascorso.

Torna su