Skip to content

psicologo IA

Perché usare l’IA come psicologo non è una buona idea

Le richieste di aiuto psicologico aumentano ma non tutti possono permetterselo. Ecco quindi che sempre più persone si rivolgono all'intelligenza artificiale. Tuttavia, Sam Altman di OpenAI avverte sui rischi legati alla privacy e i medici sulla scarsa qualità. Fatti, numeri e commenti

 

Tutto quello che raccontiamo allo psicologo è vincolato dal segreto professionale. A meno che il nostro psicologo non sia l’intelligenza artificiale. A mettere in guardia dalla mancanza di privacy riguardo alle conversazioni con l’IA è lo stesso Sam Altman, Ceo di OpenAI e “padre” di ChatGPT, il quale ha ricordato che queste non sono necessariamente private, a causa della mancanza di tutele legali.

L’aumento di richieste di aiuto psicologico e l’impossibilità di molti di potersi permettere un professionista sta infatti portando sempre più persone a rivolgersi a un chatbot per cercare sostegno ma gli esperti si dicono preoccupati circa la loro affidabilità.

COSA HA DETTO ALTMAN SU CHATGPT IN VESTE DI PSICOLOGO

Le conversazioni personali con ChatGPT, utilizzato da molti come supporto emotivo o “terapeuta virtuale”, non sono legalmente protette. Ad affermarlo non è stato uno chiunque ma il suo inventore.

Altman, durante un’intervista ha spiegato che, in caso di controversie legali, le informazioni condivise con l’intelligenza artificiale potrebbero dover essere divulgate.

Il Ceo di OpenAI ha chiarito che, a differenza delle conversazioni con terapeuti, avvocati o medici – coperte da specifiche forme di riservatezza legale – non esistono ancora norme che garantiscano la privacy per chi parla con un chatbot come ChatGPT. “Se oggi una persona racconta qualcosa di estremamente sensibile a ChatGPT, e domani si trova coinvolta in una causa legale, potremmo essere obbligati a fornire quei dati”, ha detto Altman. “E questo – ha aggiunto -, secondo me, è profondamente sbagliato”.

LA RICHIESTA DI UN QUADRO NORMATIVO

Altman, evidenziando che molte persone, in particolare i più giovani, utilizzano ChatGPT come una sorta di terapeuta o coach di vita, ha quindi ribadito la necessità urgente di sviluppare un quadro normativo o politico che regoli il rapporto tra cittadini e IA.

“La gente condivide con ChatGPT le cose più personali della propria esistenza – ha detto -. Dobbiamo pensare seriamente a come trattare la questione della privacy in questo nuovo contesto. Un anno fa nessuno ci pensava. Ora è una delle questioni più importanti da affrontare”.

NON SOLO UNA QUESTIONE DI PRIVACY

Ma l’intelligenza artificiale non solleva preoccupazioni solo dal punto di vista della privacy. I medici si soffermano infatti sulla qualità del supporto offerto.

Secondo un recente studio della Stanford University, i chatbot terapeutici basati su IA possono esprimere pregiudizi, stigmatizzare determinate condizioni di salute mentale e fare affermazioni inappropriate. Gli autori della ricerca mettono in guardia: allo stato attuale, questi strumenti non possono sostituire i professionisti.

“Non si tratta semplicemente di dire che i modelli linguistici di grandi dimensioni (LLM) sono inadatti alla terapia”, ha spiegato Nick Haber, autore principale dello studio, “ma di iniziare a riflettere in modo critico su quale possa essere il loro ruolo reale”. Per Haber, le potenzialità dell’intelligenza artificiale nel campo della salute mentale esistono, ma devono essere affrontate con attenzione, regolamentazione e senso etico.

SEMPRE PIÙ PERSONE PROVANO L’IA COME TERAPEUTA

Sebbene esistano poche statistiche ufficiali, professionisti della salute mentale in Taiwan e in Cina, ma anche nel Regno Unito e non solo, hanno riportato un aumento di pazienti che consultano l’intelligenza artificiale prima di rivolgersi a loro, o addirittura al posto di farlo.

Sondaggi – tra cui un’analisi globale pubblicata di recente dalla Harvard Business Review e citata dal Guardian – mostrano che il supporto psicologico è oggi uno dei principali motivi per cui gli adulti usano chatbot basati sull’IA e sui social media ci sono centinaia di migliaia di post che lodano l’intelligenza artificiale per l’aiuto ricevuto.

L’aumento delle richieste di aiuto psicologico si registra anche in Italia. Secondo l’Ente nazionale di previdenza ed assistenza per gli psicologi (Enpap), si è passati dal 29% nel 2020 al 39% nel 2024, tuttavia, più del 20% delle persone intervistate ha dichiarato di non poterselo permettere per ragioni economiche e un anno fa il presidente del Consiglio nazionale dell’Ordine degli psicologi (Cnop) David Lazzari affermava che erano 5 milioni gli italiani che non si rivolgono allo psicologo per lo stesso motivo e che 7 giovani su 10 non ricevono l’aiuto di cui hanno bisogno.

SLINGSHOT AI E IL SUO ASH

Ovviamente c’è chi prova a trarre profitto da questo bisogno insoddisfatto che dilaga in tutto il mondo e, oltre ai noti chatbot generalisti, c’è chi punta proprio su questo specifico ambito.

Ne è un esempio la startup newyorkese Slingshot AI, fondata da Neil Parikh (co-fondatore di Casper) e Daniel Reid Cahn (ex ricercatore dell’Imperial College London) e sostenuta da a16z, che in concomitanza con una raccolta di finanziamenti pari a 93 milioni di dollari ha presentato Ash, un nuovo strumento di supporto alla salute mentale alimentato da intelligenza artificiale.

Ash, addestrato su un ampio set di dati di salute comportamentale, può essere utilizzato via voce o messaggio e fornisce supporto psicologico personalizzato, ricordando le conversazioni precedenti e adattandosi alle esigenze dell’utente.

Secondo Cahn, il chatbot nasce per rispondere a una crisi della salute mentale: nel 2023, infatti, 59,2 milioni di americani hanno cercato l’aiuto della terapia, ma il 54% di chi ne ha bisogno non riceve alcuna cura.

Torna su