OpenAI ha deciso di insinuarsi seriamente nel settore sanitario (oltre che in quello dei dati personali). Qualche giorno fa infatti ha presentato ChatGpt Health, una nuova funzionalità che permette agli utenti di caricare cartelle cliniche, collegare dispositivi indossabili e app per il benessere, con l’obiettivo di ricevere consigli su misura riguardo a salute, dieta e allenamento.
La mossa solleva però inevitabilmente interrogativi rilevanti su privacy, sicurezza dei dati sensibili e affidabilità delle informazioni mediche fornite da un’intelligenza artificiale. Esperti e attivisti sottolineano i rischi legati alla gestione di informazioni biologiche delicate da parte di piattaforme commerciali e alle potenziali “allucinazioni” dell’IA, che potrebbero indurre utenti non esperti a diagnosi fai-da-te o interpretazioni errate dei dati clinici. Senza dimenticare la perdita di empatia e disumanizzazione della relazione medico-paziente.
Secondo OpenAI, oltre 230 milioni di persone nel mondo pongono ogni settimana domande sulla salute al chatbot.
COME FUNZIONA CHATGPT HEALTH
ChatGpt Health permette agli utenti di collegare cartelle cliniche, dispositivi indossabili e app come Apple Health, MyFitnessPal, Peloton, Weight Watchers e Function. Secondo OpenAI, le conversazioni e i dati sanitari saranno archiviati separatamente dalle altre chat e non verranno utilizzati per addestrare i modelli di IA.
L’azienda ha riferito di aver collaborato con b.well Connected Health per fornire l’infrastruttura che consente agli utenti di condividere in sicurezza cartelle cliniche con oltre 2,2 milioni di fornitori e 320 piani sanitari statunitensi, tramite sistemi basati su API FHIR con controlli su identità, consenso e sicurezza dei dati.
ACCESSO GRADUALE E LIMITAZIONI GEOGRAFICHE
L’accesso a ChatGpt Health, scrive Fierce Pharma, è inizialmente riservato a un piccolo gruppo di utenti statunitensi con piani ChatGpt Free, Go, Plus e Pro, mentre Spazio Economico Europeo (SEE), Svizzera e Regno Unito restano esclusi per motivi normativi. OpenAI prevede di estendere l’accesso nelle prossime settimane su web e iOS, dopo una fase beta in cui gli utenti forniranno feedback sul funzionamento del servizio.
LA COLLABORAZIONE CON I MEDICI
OpenAI ha dichiarato che ChatGpt Health è stato sviluppato in stretta collaborazione con oltre 260 medici provenienti da 60 Paesi e decine di specialità. I professionisti hanno fornito feedback sui risultati dei modelli oltre 600.000 volte, contribuendo a modellare le risposte dell’IA.
“I medici non hanno abbastanza tempo né risorse. Non possono dedicare tutto il tempo necessario a capire ogni aspetto di una persona, né a spiegare ciò che sta accadendo in un modo che sia facilmente comprensibile. L’intelligenza artificiale, invece, non ha questi limiti”, ha dichiarato Fidji Simo, Ceo delle applicazioni di OpenAI.
A COSA SERVE CHATGPT HEALTH
Secondo OpenAI, ChatGpt Health può aiutare gli utenti a comprendere i risultati degli esami, prepararsi agli appuntamenti medici, ricevere indicazioni su dieta e allenamento, e valutare le opzioni assicurative in base ai propri modelli di assistenza sanitaria. L’azienda ha inoltre sottolineato che “Health è progettato per supportare, non sostituire, l’assistenza medica”. Le conversazioni e i dati di Health non confluiscono nelle chat standard e gli utenti possono gestire le memorie e visualizzarle o eliminarle in qualsiasi momento.
RISCHI LEGATI A PRIVACY E SICUREZZA
L’integrazione di dati sanitari sensibili in piattaforme proprietarie ha tuttavia sollevato preoccupazioni sulla protezione delle informazioni. Andrew Crawford, del Center for Democracy and Technology, ha dichiarato: “I nuovi strumenti di IA per la salute offrono la promessa di dare più potere ai pazienti e promuovere migliori risultati, ma i dati sanitari sono tra le informazioni più sensibili che le persone possano condividere e devono essere protetti”. Crawford ha anche aggiunto che “poiché spetta a ciascuna azienda stabilire le regole su come i dati sanitari vengono raccolti, utilizzati, condivisi e archiviati, protezioni e politiche inadeguate possono mettere seriamente in pericolo informazioni sanitarie sensibili”.
OpenAI ha introdotto diversi livelli di crittografia e isolamento dei dati ma, come spiega Futurism, l’HIPAA (una legge federale statunitense del 1996 che stabilisce standard nazionali per proteggere le informazioni sanitarie sensibili dei pazienti, garantendone la privacy e la sicurezza) non si applica ai prodotti per i consumatori come ChatGpt Health, il che significa che i dati non rientrano nelle protezioni obbligatorie previste per cliniche o compagnie assicurative. In caso di ordine del tribunale, precisa The Verge, OpenAI può essere tenuta a fornire i dati.
NON UN BUON INIZIO
L’uso di chatbot e modelli linguistici per questioni mediche ha mostrato rischi legati a informazioni fuorvianti o allucinazioni dei modelli, con casi documentati di consigli pericolosi e interpretazioni errate di esami. Solo qualche giorno fa, un’inchiesta del Guardian ha rilevato che attraverso AI Overviews di Google continuano a circolare consigli sanitari rischiosi, inclusi suggerimenti errati su esami della funzionalità epatica, test oncologici femminili e diete raccomandate per chi soffre di cancro al pancreas. Lo scorso anno, invece, Elon Musk ha incoraggiato le persone a caricare i propri dati medici sul suo chatbot Grok, provocando un’ondata di confusione quando gli utenti hanno ricevuto diagnosi “allucinate” dopo aver condiviso radiografie e PET.
Secondo Business Insider, ChatGpt ha “trasformato tutti in avvocati e medici dilettanti”, con conseguenze per professionisti legali e sanitari, mentre Futurism riporta che alcuni utenti utilizzano i chatbot anche per compilare moduli legali o valutare presunti casi di negligenza, che non sempre risultano validi.
L’ESPANSIONE DI OPENAI NEL SETTORE SANITARIO
Oltre a ChatGpt Health, OpenAI ha annunciato prodotti per i professionisti della sanità, tra cui ChatGpt for Healthcare, già adottato da istituzioni come AdventHealth, HCA Healthcare, Boston Children’s Hospital, Cedars-Sinai Medical Center e Stanford Medicine Children’s Health. Stando alla software house, i modelli Gpt-5 alla base di questi strumenti includono linee guida cliniche, protocolli e studi scientifici con citazioni per facilitare la verifica, e supportano la crittografia gestita dai clienti per rimanere conformi all’HIPAA.
COSA DICONO ESPERTI E ANALISTI
Esperti di settore e analisti osservano che ChatGpt Health rappresenta un punto di svolta nell’uso dell’IA per la salute. Max Sinclair, Ceo di Azoma, ha definito il lancio un “momento spartiacque” che potrebbe rimodellare l’assistenza ai pazienti e il commercio al dettaglio. Rajiv Leventhal di Emarketer, invece, ha sottolineato che il successo del servizio dipenderà dalla disponibilità degli utenti a condividere dati medici sensibili.



