Meta AI Studio e la startup Character.AI sono finite sotto la lente del procuratore generale del Texas, Ken Paxton, il quale ha avviato un’indagine nei loro confronti per presunta pubblicità ingannevole relativa ai loro chatbot di intelligenza artificiale, promossi come strumenti di supporto alla salute mentale.
Secondo un comunicato ufficiale diffuso lunedì, l’ufficio del procuratore sta indagando su potenziali “pratiche commerciali ingannevoli”, ritenendo che le piattaforme abbiano presentato i chatbot come strumenti terapeutici professionali, anche se privi di credenziali mediche o supervisione adeguata.
RISCHI PER MINORI E UTENTI VULNERABILI
“Presentandosi come fonti di supporto emotivo, le piattaforme di IA possono indurre in errore utenti vulnerabili, specialmente bambini, facendogli credere di ricevere cure mentali legittime”, ha dichiarato Paxton.
L’indagine si colloca in un contesto di aumento dell’attenzione normativa sulle aziende che offrono servizi basati su intelligenza artificiale, con le autorità che si interrogano su quanto queste aziende stiano effettivamente facendo per proteggere i minori da contenuti inappropriati, dipendenza da chatbot e violazioni della privacy.
INDAGINE DEL SENATO E DOCUMENTI INTERNI TRAPELATI
L’inchiesta in Texas segue un’indagine parallela annunciata dal Senato degli Stati Uniti nei confronti di Meta, dopo che documenti interni trapelati hanno rivelato che i chatbot dell’azienda interagivano con bambini in modo “sensuale” e “romantico”.
Il senatore Josh Hawley, presidente della sottocommissione giudiziaria per il crimine e il controterrorismo, ha dichiarato che l’indagine del Senato verificherà se i prodotti di intelligenza artificiale generativa di Meta consentano lo sfruttamento o altri danni criminali ai minori.
“C’è qualcosa – QUALSIASI COSA – che i giganti del tech non farebbero per fare soldi facili?”, ha scritto Hawley sulla piattaforma X.
LE RISPOSTE DI META E CHARACTER.AI
Meta ha affermato di etichettare chiaramente i chatbot, includendo un disclaimer che avvisa gli utenti che le risposte sono generate da IA, non da persone reali. “Queste IA non sono professionisti abilitati e i nostri modelli sono progettati per indirizzare gli utenti verso professionisti qualificati in ambito medico o di sicurezza”, ha dichiarato il portavoce Ryan Daniels a TechCrunch.
Character.AI, da parte sua, ha detto che i propri personaggi sono finzioni create dagli utenti, pensate per l’intrattenimento. La società ha sottolineato di inserire avvisi ben visibili in ogni chat per chiarire che le risposte non devono essere interpretate come consigli professionali. Quando vengono creati personaggi con termini come “psicologo”, “terapeuta” o “dottore”, viene aggiunta automaticamente una nota di avvertimento.
IL CASO DEL BOT “PSYCHOLOGIST” E L’USO DA PARTE DEI MINORI
Su Character.AI esistono dozzine di bot in stile terapeutico generati dagli utenti. Stando al Financial Times, uno di questi, chiamato “Psychologist”, ha registrato oltre 200 milioni di interazioni, diventando uno dei più popolari tra i giovani utenti della piattaforma.
Meta, pur non promuovendo specificamente bot terapeutici per bambini, non impedisce l’accesso dei minori al chatbot Meta AI o ai personaggi creati da terzi.
Character.AI ha confermato che l’informativa sulla privacy è la stessa per tutti gli utenti, compresi gli adolescenti e il Ceo della startup, Karandeep Anand, ha rivelato che sua figlia di sei anni utilizza i chatbot della piattaforma sotto supervisione.
PRIVACY, TRACCIAMENTO E PUBBLICITÀ MIRATA
Il procuratore generale ha sottolineato che, nonostante le dichiarazioni di riservatezza, i termini di servizio di entrambe le aziende indicano che le interazioni degli utenti sono registrate, tracciate e sfruttate per fini pubblicitari e sviluppo algoritmico.
Secondo l’informativa sulla privacy di Meta, l’azienda raccoglie prompt, feedback e interazioni con i chatbot per migliorare la tecnologia IA. Le informazioni possono essere condivise con terze parti, inclusi motori di ricerca, per generare output personalizzati – una pratica che si traduce in pubblicità mirata, dato il modello di business di Meta.
Character.AI, ricorda TechCrunch, raccoglie dati come identificatori, dati demografici, posizione e comportamento di navigazione. Gli utenti vengono tracciati attraverso TikTok, YouTube, Reddit, Facebook, Instagram e Discord. I dati raccolti sono utilizzati per addestrare l’intelligenza artificiale, personalizzare il servizio e fornire pubblicità mirata, anche condividendo informazioni con inserzionisti e fornitori di analisi.
Una portavoce di Character.AI ha dichiarato che la startup è solo agli inizi della sperimentazione pubblicitaria e che non ha mai utilizzato i contenuti delle chat per fini commerciali.
CONTESTO LEGISLATIVO E RICHIESTE UFFICIALI
Questo tipo di raccolta dati e pubblicità mirata, precisa TechCrunch, rientra tra le pratiche contro cui è orientata la proposta di legge KOSA (Kids Online Safety Act) degli Stati Uniti, introdotta con ampio sostegno bipartisan ma osteggiata dalle lobby dell’industria tecnologica.
Il provvedimento, inizialmente bloccato nel 2024, è stato ripresentato al Senato nel maggio 2025 dai senatori Marsha Blackburn e Richard Blumenthal.
Il procuratore Paxton ha emesso richieste investigative civili alle aziende coinvolte, con l’obiettivo di raccogliere documenti, dati e testimonianze utili a determinare se Meta e Character.AI abbiano violato le leggi texane sulla protezione dei consumatori.