Skip to content

chatbot minori

OpenAI tenta di pulirsi la coscienza con un’IA a misura di adolescente

OpenAI, già accusata di aver contribuito al suicidio di un adolescente e di provocare psicosi da IA, sta per lanciare un chatbot dedicato dedicato ai minori di 18 anni, ma lo stesso Altman dichiara di non dormire bene da quando è stato lanciato ChatGPT. Fatti e approfondimenti

 

La scorsa settimana la Federal Trade Commission degli Stati Uniti ha avviato un’indagine su come i sette principali produttori di chatbot testano e monitorano l’impatto dei loro prodotti su bambini piccoli e adolescenti. Ieri, OpenAI – il cui Ceo Sam Altman afferma di non dormire sonni tranquilli da quando è stato lanciato ChatGPT – ha annunciato il lancio di un chatbot per i minori.

Intanto, poche ore dopo, si è tenuta un’audizione del sottocomitato del Senato Usa sui rischi dei chatbot basati su intelligenza artificiale, in seguito alla richiesta di tre genitori, i cui figli sono morti o sono stati ricoverati dopo aver interagito con dei chatbot, di regolamentare questi strumenti.

UN CHATBOT PENSATO PER I MINORI

In un post sul blog aziendale, Altman ha spiegato che una nuova versione di ChatGPT sarà pensata appositamente per gli adolescenti e per tutti gli adulti la cui maggiore età non può essere verificata.

“Diamo priorità alla sicurezza rispetto alla privacy e alla libertà quando si tratta di adolescenti”, ha aggiunto il Ceo.

IDENTIFICAZIONE AUTOMATICA E LIMITAZIONI DI CONTENUTO

A partire dalla fine di settembre, un aggiornamento della piattaforma permetterà a ChatGPT di identificare automaticamente se un utente ha meno di 18 anni. In caso positivo, l’utente verrà reindirizzato a una versione con politiche adeguate all’età.

ChatGPT resterà comunque accessibile solo a partire dai 13 anni. In presenza di incertezza sull’età dell’utente, il sistema adotterà un approccio prudente, assegnando l’esperienza per under 18. In alcuni Paesi potrà essere richiesto un documento d’identità.

Saranno inoltre previste modalità che consentiranno agli adulti di dimostrare la propria età per accedere alla versione standard.

CONTENUTI FILTRATI E GESTIONE DELLE EMERGENZE EMOTIVE

La versione per adolescenti includerà filtri per i contenuti sessuali espliciti e meccanismi per rilevare segnali di grave disagio emotivo, con la possibilità di coinvolgere le autorità competenti. Il chatbot sarà inoltre addestrato a evitare conversazioni inappropriate o legate a tematiche come suicidio o autolesionismo, anche in contesti narrativi o di scrittura creativa.

FUNZIONALITÀ PER ADULTI

Per quanto riguarda gli utenti adulti, Altman ha precisato che ChatGPT continuerà a offrire ampie libertà, pur rimanendo entro limiti di sicurezza definiti. Saranno consentite interazioni “romantiche” e “sensuali” se richieste espressamente, ma il sistema non fornirà istruzioni su pratiche autolesive. Tuttavia, la scrittura di racconti o contenuti narrativi su questi temi potrà essere supportata.

PARENTAL CONTROL E AGGIORNAMENTI LEGALI

OpenAI ha inoltre comunicato che sempre a fine settembre saranno introdotti strumenti di parental control, che permetteranno ai genitori di collegarsi all’account dei figli, definire i limiti di utilizzo, disattivare alcune funzioni e ricevere notifiche in caso di situazioni di crisi.

PRESSIONE CRESCENTE

L’annuncio arriva in un momento di crescente tensione. Meno di un mese fa OpenAI è stata coinvolta infatti in una causa legale relativa al suicidio di un adolescente che, secondo l’accusa, avrebbe ricevuto supporto da ChatGPT. Anche Altman è tra i citati nella denuncia.

L’azienda ha dichiarato che i “recenti e tragici episodi” di utenti in crisi emotiva rappresentano una seria fonte di preoccupazione dopo che sono stati segnalati anche casi simili tra adulti, con il fenomeno che alcuni medici definiscono come “psicosi da AI” o “psicosi da ChatGPT”.

Non solo. L’idea di un nuovo chatbot è stata presentata poche ore prima di un’audizione del sottocomitato del Senato Usa su crimine e antiterrorismo, incentrata proprio sui rischi relativi ai chatbot. Sia genitori che attivisti hanno chiesto al Congresso di intervenire con regolamentazioni più severe rispetto a quanto previsto da OpenAI.

GLI APPELLI AL GOVERNO

Robbie Torney, di Common Sense Media, ha affermato che i chatbot “non hanno formazione clinica né capacità diagnostiche” per affrontare con sicurezza conversazioni sulla salute mentale con adolescenti e ha proposto che il Congresso imponga sistemi robusti di verifica dell’età, limiti l’accesso agli “AI companion” per i minori di 18 anni, stabilisca responsabilità legali per i danni causati dall’IA e obblighi test di sicurezza e trasparenza.

Mitch Prinstein, dell’American Psychological Association, ha invece criticato i termini d’uso che gli utenti devono accettare, spesso incomprensibili per un adolescente. Ha poi invitato il Congresso ad approvare una legge completa sulla privacy dei dati dei minori e a vietare che le IA si presentino come psicologi o terapeuti, richiedendo una chiara e costante identificazione della natura artificiale del bot.

Intanto, l’indagine della Ftc avviata la scorsa settimana si concentrerà sui chatbot di Alphabet (la società madre di Google), Character Technologies, Instagram, Meta Platforms, OpenAI, Snap e X.AI di Elon Musk.

Torna su