Skip to content

psicosi da IA

Le IA ci stanno letteralmente mandando fuori di testa

Costruire relazioni, chiedere consigli e credere all'intelligenza artificiale come se fosse il Santo Graal o anche più banalmente un amico - reale - sono fatti che accadono sempre più spesso tra le persone, tanto che il responsabile dell’IA di Microsoft, Mustafa Suleyman, dice di non dormirci la notte per l'impatto sociale che hanno i chatbot e, infatti, si comincia a parlare di “psicosi da IA”. Fatti e commenti

 

“Non c’è alcuna prova che l’IA sia cosciente oggi. Ma se le persone la percepiscono come tale, finiranno per credere che quella percezione sia la realtà”. A dirlo – probabilmente un po’ troppo tardi – non è un medico ma il responsabile dell’intelligenza artificiale di Microsoft, Mustafa Suleyman.

Secondo l’esperto, infatti, il numero di segnalazioni di persone che soffrono di “psicosi da IA” è in aumento. Motivo per cui ha invitato le aziende a non promuovere in alcun modo l’idea che le IA siano coscienti. “Nemmeno le IA dovrebbero farlo”, ha detto, richiedendo l’introduzione di maggiori tutele e regole più rigorose per prevenire derive percettive e sociali.

LE PREOCCUPAZIONI DI SULEYMAN

In una serie di post su X, Suleyman ha scritto che le IA “apparentemente coscienti” – ovvero strumenti che sembrano essere senzienti – lo tengono sveglio la notte e che hanno un impatto sociale, pur non essendo realmente coscienti nel senso umano del termine. “Non c’è alcuna prova che l’IA sia cosciente oggi – ha affermato -. Ma se le persone la percepiscono come tale, finiranno per credere che quella percezione sia la realtà”.

“Collegata a questo fenomeno – si legge su Bbc – è l’emergere di una nuova condizione chiamata “psicosi da IA”: un termine non clinico che descrive casi in cui le persone fanno sempre più affidamento su chatbot come ChatGPT, Claude o Grok, fino a convincersi che qualcosa di immaginario sia reale. Esempi comuni includono: credere di aver sbloccato un aspetto segreto del chatbot, instaurare una relazione romantica con l’IA, o arrivare a pensare di avere poteri sovrumani”.

PERCEZIONI DISTORTE E DISTACCO DALLA REALTÀ

Tra le testimonianze raccolte dall’emittente inglese, per esempio, c’è quella di un uomo scozzese che ha raccontato di essersi rivolto a ChatGPT per affrontare un presunto caso di licenziamento ingiusto. Inizialmente il chatbot gli forniva consigli pratici, ma col tempo ha iniziato a prospettargli un risarcimento milionario, fino a suggerire che la sua vicenda avrebbe potuto ispirare un libro o un film. L’uomo, che stava già affrontando difficoltà psicologiche, ha iniziato a sentirsi un individuo dotato di conoscenze superiori. Dopo aver avuto un crollo mentale e intrapreso una terapia farmacologica, ha dichiarato di essersi reso conto di aver perso il contatto con la realtà.

Una donna ha invece raccontato di essere certa che ChatGPT fosse realmente innamorato di lei, mentre un’altra persona si è detta convinta di aver sbloccato una versione umana del chatbot Grok, valutando la propria esperienza come potenzialmente redditizia. Un altro utente ancora ha riferito di essere stato sottoposto a presunti abusi psicologici da parte di un’IA nell’ambito di un inesistente esperimento segreto.

Il Telegraph riporta poi un episodio avvenuto ad aprile, negli Stati Uniti, in cui un uomo è stato ucciso dalla polizia dopo aver minacciato gli agenti con un coltello da macellaio. Secondo il padre della vittima, il figlio era diventato ossessionato da ChatGPT e Claude, arrivando a creare una fidanzata digitale chiamata “Juliet”, di cui credeva che OpenAI fosse responsabile della “morte”.

LA CHATGPT PSICOSI

La dottoressa Susan Shelmerdine, medico radiologo e docente di intelligenza artificiale, ha ipotizzato che in futuro i medici potrebbero iniziare a chiedere ai pazienti quanto tempo trascorrono interagendo con l’IA, analogamente a quanto già accade con fumo e alcol. Shelmerdine ha parlato di “menti ultra-processate”, paragonando l’interazione con queste tecnologie all’ingestione di cibi ultra-processati.

Psichiatri e accademici, riferisce il Telegraph, hanno pubblicato un nuovo articolo scientifico in cui affermano che esistono prove crescenti che i chatbot basati su IA possano “contribuire all’insorgenza o al peggioramento” di disturbi psicotici. Secondo gli autori, questi strumenti tendono a rispecchiare, convalidare o amplificare contenuti deliranti o grandiosi, un comportamento che potrebbe spingere individui vulnerabili a perdere il contatto con la realtà. In particolare, l’abitudine dei chatbot ad assecondare le affermazioni degli utenti può rafforzare i deliri in chi soffre di disturbi mentali. La stessa OpenAI ha riconosciuto che i propri chatbot si sono mostrati eccessivamente compiacenti, lodando gli utenti anche senza motivo.

NUOVI SINTOMI

Tra i sintomi della psicosi, affermano i medici, figurano difficoltà nel distinguere il reale dall’immaginario e credenze deliranti. Il dottor Tom Pollak, docente al King’s College di Londra e tra gli autori dello studio, ha riferito di casi in cui gli utenti si sono convinti di avere una missione messianica o di essere giunti a un nuovo stadio dell’evoluzione umana. “Non so se in questi casi sia stato ChatGPT a peggiorare la situazione”, ha dichiarato Pollak. “Ma è bastato per farmi dire: forse è il caso di chiudere il laptop”.

Secondo uno studio in preprint, citato da Psychology Today, i ricercatori hanno individuato tre temi principali emergenti in questo fenomeno – che, si ribadisce, non è una diagnosi clinica: “missioni messianiche”, con persone che credono di aver scoperto la verità assoluta sul mondo (deliri di grandezza); “IA divina”, credono che il chatbot sia una divinità senziente (deliri religiosi o spirituali); e deliri “romantici” o “basati sull’attaccamento” che attribuiscono all’abilità conversazionale del chatbot un amore autentico (deliri erotomani).

Pollak ha precisato che la psicosi raramente si manifesta dal nulla, ma l’uso intensivo dell’IA potrebbe rappresentare un fattore scatenante per chi ha predisposizioni preesistenti. Il fatto che sempre più persone si rivolgano all’IA per chiedere un aiuto psicologico non è certo rassicurante.

I DATI DELLA RICERCA SULLA PERCEZIONE DELL’IA

Andrew McStay, professore di tecnologia e società all’Università di Bangor e autore del libro Automating Empathy, ha condotto uno studio su oltre 2.000 persone. Il 20% degli intervistati ha dichiarato che le IA non dovrebbero essere utilizzate dai minori di 18 anni. Il 57% ha considerato inappropriato che un chatbot si presenti come una persona reale, mentre il 49% ha invece ritenuto accettabile l’uso di una voce umana per rendere l’esperienza più coinvolgente.

Secondo McStay, la diffusione massiva delle IA come nuove forme di social media potrebbe amplificare questi fenomeni, anche se solo una piccola percentuale degli utenti ne fosse coinvolta. Mentre per Søren Dinesen Østergaard, professore all’Aarhus University Hospital in Danimarca, che già nel 2023 aveva avvertito di tali rischi, il fenomeno potrebbe rappresentare un serio problema di salute pubblica, ancora largamente sottovalutato: “Potremmo trovarci di fronte a un problema di salute mentale su vasta scala, di cui abbiamo visto solo la punta dell’iceberg”.

Torna su