Skip to content

salute mentale openai

OpenAI rivela quante persone mostrano problemi di salute mentale su ChatGPT

Oltre 1 milione di utenti di ChatGPT mostra intenti suicidi e circa 560.000 evidenziano segni di psicosi o mania ogni settimana. A dirlo è OpenAI. Fatti, numeri e commenti

 

OpenAI ha diffuso nuovi dati che rivelano come una piccola ma significativa percentuale di utenti di ChatGPT mostri segni di emergenze legate alla salute mentale, tra cui psicosi, mania e pensieri suicidi. L’azienda afferma di aver introdotto aggiornamenti per migliorare la gestione delle conversazioni sensibili e di collaborare con esperti in ambito medico e psicologico per potenziare la sicurezza del chatbot.

DATI SULLA SALUTE MENTALE E CHATGPT

Stando a quanto riferito da OpenAI, circa lo 0,07% degli utenti settimanali di ChatGPT mostra “possibili segni di emergenze legate alla salute mentale”, come episodi di psicosi o mania. Considerando gli 800 milioni di utenti attivi dichiarati dal Ceo Sam Altman, la percentuale equivale a oltre 560.000 persone ogni settimana.

Il Guardian riporta inoltre che più di un milione di utenti inviano messaggi contenenti “indicatori espliciti di un potenziale piano o intento suicida”. OpenAI specifica che questi numeri derivano da una prima analisi interna e che rilevare tali conversazioni resta un processo complesso.

LA RISPOSTA DI OPENAI E GLI AGGIORNAMENTI DI GPT-5

OpenAI sostiene che gli ultimi aggiornamenti del modello GPT-5 abbiano migliorato la capacità del chatbot di “rispondere in modo sicuro ed empatico a potenziali segni di delirio o mania” e di individuare “segnali indiretti di potenziale autolesionismo o rischio di suicidio”.

E sempre secondo l’azienda, il nuovo modello ha ottenuto un 91% di conformità ai comportamenti desiderati, rispetto al 77% della versione precedente. Inoltre, GPT-5 avrebbe ampliato l’accesso alle linee di assistenza per le crisi e introdotto promemoria per invitare gli utenti a fare pause durante le sessioni più lunghe.

LA RETE GLOBALE DI ESPERTI E LE VALUTAZIONI CLINICHE

OpenAI afferma anche di aver formato una rete di oltre 170 esperti tra psichiatri, psicologi e medici di base attivi in 60 Paesi, incaricati di elaborare risposte destinate a incoraggiare gli utenti a cercare aiuto nel mondo reale.

L’azienda ha inoltre coinvolto i membri del proprio Global Physician Network in un progetto di ricerca che ha previsto la revisione di 1.800 risposte del modello relative a situazioni di emergenza psicologica. “Come parte di questo lavoro, psichiatri e psicologi hanno esaminato oltre 1.800 risposte del modello relative a situazioni gravi di salute mentale e hanno confrontato le risposte del nuovo modello GPT-5 con quelle dei modelli precedenti”, si legge nella nota.

LE CRITICHE DEL MONDO ACCADEMICO E MEDICO

Diversi esperti di salute mentale hanno tuttavia espresso preoccupazione per l’impatto potenziale dei chatbot sul benessere psicologico degli utenti. Secondo il dottor Jason Nagata, dell’Università della California a San Francisco, “anche se lo 0,07% può sembrare una piccola percentuale, a livello di popolazione – con centinaia di milioni di utenti – si tratta in realtà di un numero considerevole di persone”.

Nagata ha aggiunto che “l’IA può ampliare l’accesso al supporto per la salute mentale e, in alcuni casi, favorire il benessere mentale, ma dobbiamo essere consapevoli dei suoi limiti”.

Anche la professoressa Robin Feldman, direttrice dell’Istituto di Diritto e Innovazione dell’IA dell’Università della California, ha commentato che “i chatbot creano l’illusione della realtà, è un’illusione potente”. Feldman ha però riconosciuto a OpenAI il merito di “aver condiviso statistiche e per gli sforzi volti a migliorare il problema”, pur sottolineando che “una persona mentalmente a rischio potrebbe non essere in grado di prestare attenzione a tali avvertenze”.

AZIONI LEGALI E INDAGINI IN CORSO

Come scritto in precedenza, OpenAI si trova al centro di un crescente controllo legale per il modo in cui ChatGPT interagisce con gli utenti. Una coppia californiana ha avviato una causa per la morte del figlio sedicenne Adam Raine, sostenendo che il chatbot lo avrebbe incoraggiato a togliersi la vita. Si tratta della prima azione legale che accusa OpenAI di omicidio colposo.

In un altro caso, il sospettato di un omicidio-suicidio a Greenwich (Connecticut) avrebbe pubblicato ore di conversazioni con ChatGPT che, secondo le indagini, potrebbero aver alimentato i suoi deliri.

Parallelamente, la Federal Trade Commission ha avviato un’indagine sulle aziende che sviluppano chatbot basati su IA, tra cui OpenAI, per valutare come misurino i possibili effetti negativi sui minori.

Torna su