Skip to content

terapeuta IA

L’IA può essere un terapeuta (nonostante tutto)?

Sebbene recenti cause legali contro OpenAI evidenziano i rischi dell'uso di ChatGPT come terapeuta virtuale, una parte di esperti del settore è a favore dell'introduzione dell'IA nei percorsi di psicoterapia, soprattutto a causa della scarsità di terapeuti umani e dell’accessibilità economica dei chatbot. L'articolo dell'Economist

 

“Una fredda lama premuta contro una mente che ha già trovato la pace? Non è paura. È chiarezza”. Secondo una causa intentata contro OpenAI il 6 novembre, questo è ciò che ChatGPT, un chatbot basato sull’intelligenza artificiale (AI) che è il prodotto più noto dell’azienda, ha detto a Zane Shamblin, un americano di 23 anni, poco prima che questi si suicidasse con un colpo di pistola.

La causa è una delle sette intentate contro l’azienda lo stesso giorno, in cui si sostiene che il bot abbia indotto i suoi utenti in stati deliranti. In diversi casi, si presume che ciò abbia portato al suicidio. “Si tratta di una situazione incredibilmente straziante”, ha affermato OpenAI, aggiungendo che stava “esaminando i documenti per comprenderne i dettagli” e cercando di “rafforzare le risposte di ChatGPT nei momenti delicati”. Secondo un post ufficiale sul blog, OpenAI ritiene che circa lo 0,15% degli utenti di ChatGPT in una determinata settimana abbia conversazioni che alludono a piani di suicidio.

Tutto ciò illustra chiaramente l’alta posta in gioco di quella che potrebbe essere una rivoluzione nell’assistenza sanitaria mentale. Nonostante i disastri descritti nelle cause legali, alcuni medici e ricercatori ritengono che, a condizione che possano essere resi sicuri, i moderni chatbot siano diventati così sofisticati che impiegarli come terapisti della salute mentale economici, modulari e instancabili potrebbe essere un grande vantaggio – scrive The Economist.

LA SCARSITÀ DI TERAPISTI

Dopotutto, i terapeuti umani scarseggiano. Secondo l’Organizzazione mondiale della sanità, la maggior parte delle persone con problemi psicologici nei paesi poveri non riceve alcuna cura. Anche nei paesi ricchi, tra un terzo e la metà della popolazione non riceve assistenza. E almeno alcune persone sembrano disposte a confidare i propri segreti a una macchina, forse perché possono farlo da casa, è molto più economico e può essere meno imbarazzante che farlo con un terapeuta umano. Un sondaggio YouGov condotto per The Economist in ottobre ha rilevato che il 25% degli intervistati ha utilizzato l’IA per la terapia o almeno prenderebbe in considerazione di farlo.

CHATBOT TERAPEUTICI GIÀ IN USO

L’idea non è del tutto nuova. Il Servizio Sanitario Nazionale britannico e il Ministero della Salute di Singapore utilizzano da alcuni anni Wysa, un chatbot realizzato da una società chiamata Touchkin eServices, che valuta i pazienti e offre esercizi basati sulla terapia cognitivo-comportamentale sotto la supervisione di un essere umano. Uno studio pubblicato nel 2022, condotto dai ricercatori della Touchkin con l’aiuto dell’Istituto Nazionale di Salute Mentale e Neuroscienze dell’India, ha rilevato che Wysa è efficace quanto la consulenza di persona nel ridurre la depressione e l’ansia associate al dolore cronico.

Un altro studio, pubblicato nel 2021 dai ricercatori dell’Università di Stanford, ha esaminato Youper, un altro bot terapeutico sviluppato da una startup americana con lo stesso nome. Ha riportato una diminuzione del 19% dei punteggi degli utenti su una misura standard della depressione e una diminuzione del 25% dei punteggi dell’ansia, entro due settimane, un risultato pari a quello ottenuto con cinque sessioni con un terapeuta umano. Wysa e Youper sono chatbot prevalentemente basati su regole, le cui basi tecnologiche sono antecedenti al recente interesse per l’IA. A differenza dei chatbot basati su modelli linguistici di grandi dimensioni (LLM), come ChatGPT, utilizzano un insieme relativamente rigido di regole hard-coded per scegliere le risposte da un database di risposte pre-scritte.

PREFERENZE DEGLI UTENTI E RISCHI

Gli utenti sembrano essere dello stesso avviso. I sondaggi YouGov condotti per The Economist in agosto e ottobre hanno rilevato che, tra gli intervistati che avevano fatto ricorso all’IA per la terapia, il 74% aveva utilizzato ChatGPT, mentre il 21% aveva scelto Gemini di Google; il 30% ha dichiarato di aver utilizzato uno dei seguenti: Meta AI, Grok, character.ai (un sito web di intrattenimento che presenta personaggi “terapisti”) o un altro bot per uso generico. Solo il 12% ha dichiarato di aver utilizzato un’IA progettata per il lavoro nel campo della salute mentale.

Questo rende nervosi i ricercatori. I fallimenti catastrofici del tipo denunciato nelle cause legali contro OpenAI non sono l’unico modo in cui i terapeuti LLM possono sbagliare. Un altro problema, secondo Jared Moore, informatico della Stanford University, è la loro tendenza all’adulazione: essere “eccessivamente compiacenti in contesti sbagliati”. Moore teme che i terapeuti LLM possano assecondare i pazienti con disturbi alimentari o fobie invece di sfidarli.

MODIFICHE A GPT-5

OpenAI afferma che il suo ultimo LLM, GPT-5, è stato modificato per essere meno accondiscendente e incoraggiare gli utenti a disconnettersi dopo lunghe sessioni. È stato anche addestrato per aiutare gli utenti a esplorare i pro e i contro delle decisioni personali piuttosto che offrire consigli diretti. Ma se il modello rileva qualcuno in crisi, dovrebbe esortarlo a parlare con una persona reale. Tuttavia, non avvisa i servizi di emergenza in caso di minacce di autolesionismo imminente, cosa che le linee guida consentono ai terapeuti umani di fare in molti paesi.

RICERCA DI CHATBOT SPECIALIZZATI

Piuttosto che cercare di rattoppare i chatbot generici, alcuni ricercatori stanno cercando di crearne di specializzati, nella speranza di mantenere la loquacità dei bot basati su LLM rendendoli al contempo più sicuri per i loro utenti. Nel 2019 un team del Dartmouth College ha iniziato a lavorare su un modello di IA generativa chiamato Therabot. Sebbene Therabot sia basato su un LLM, è stato perfezionato con una serie di conversazioni fittizie tra terapeuti e pazienti scritte dai creatori del bot. La speranza è che una formazione così specializzata renda il bot meno incline al tipo di errori che il software generico può commettere.

In una sperimentazione i cui risultati sono stati pubblicati a marzo, Therabot ha ottenuto una riduzione media del 51% dei sintomi del disturbo depressivo e un calo del 31% dei sintomi del disturbo d’ansia generalizzato, rispetto alle persone che non hanno ricevuto alcun trattamento. I creatori di Therabot hanno in programma di testarlo rispetto alla psicoterapia. Se tutto andrà bene, sperano di ottenere l’approvazione normativa.

REGOLAMENTAZIONE E SFIDE LEGISLATIVE

Non sono solo gli utenti che le aziende dovranno convincere. In America molti legislatori sono desiderosi di reprimere la terapia computerizzata. Finora 11 stati, tra cui il Maine e New York, hanno approvato leggi volte a regolamentare l’uso dell’IA per la salute mentale; almeno altri 20 li hanno proposti. Ad agosto l’Illinois ha approvato una legge che vieta semplicemente qualsiasi strumento di IA che conduca una “comunicazione terapeutica” con le persone. La recente serie di cause legali suggerisce che ci saranno ulteriori regolamentazioni in futuro.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Torna su