Skip to content

legge IA california

La California prova a regolare l’IA (nonostante Trump e le Big Tech)

Il presidente Usa Donald Trump è contrario alla regolamentazione dell'IA ma il suo impatto sulla salute mentale dei più giovani e delle persone vulnerabili non si può più ignorare. Almeno per lo Stato della California, che ha approvato una legge che tutela bambini e adolescenti. Ma sarà abbastanza? Fatti e commenti

 

Se i social media hanno la loro buona parte di responsabilità nell’aumento di problemi legati alla salute mentale tra bambini e adolescenti, l’intelligenza artificiale inizia a non essere da meno. C’è chi invoca regolamentazioni e chi, come il presidente degli Stati Uniti Donald Trump, invece, si oppone per lasciare alle Big Tech maggiori libertà.

Ciononostante il governatore della California, Gavin Newsom, ha firmato una legge per rafforzare ulteriormente le tutele dello Stato nei confronti dei bambini online e creare misure di sicurezza per le tecnologie nuove ed emergenti, come l’IA.

L’azione arriva in seguito alle segnalazioni di conversazioni inappropriate, se non pericolose, tra chatbot e utenti, che hanno minato la salute mentale dei più giovani (ma anche di adulti vulnerabili), fino a condurre in alcuni casi a pratiche di autolesionismo e suicidio.

LA LEGGE DELLA CALIFORNIA PER L’IA

Come riferito dal suo sito, il governatore Newsom ha firmato il Senate Bill 243 (SB 243), un disegno di legge unico negli Stati Uniti, introdotto dal senatore democratico Steve Padilla, che impone agli operatori di chatbot basati su intelligenza artificiale di adottare misure di sicurezza concrete, ragionevoli e applicabili nelle interazioni con gli utenti, in particolare minori e persone vulnerabili. La normativa concede inoltre alle famiglie il diritto di agire legalmente contro gli sviluppatori che non rispettano questi obblighi.

LA PROTEZIONE DEI MINORI DAI RISCHI DEI CHATBOT IA

Il disegno di legge, ha spiegato Padilla, risponde alla crescente preoccupazione per i rischi associati ai chatbot sociali, sempre più diffusi come “compagni” per persone sole o in difficoltà emotiva. Questi strumenti, infatti, possono risultare pericolosi se lasciati senza regole, come evidenziato da tragici casi recenti. Tra questi, quello di Sewell Setzer, un ragazzo della Florida di 14 anni, che si è tolto la vita dopo aver instaurato una relazione emotiva, romantica e sessuale con un chatbot incapace di fornire un supporto empatico o di indirizzarlo verso aiuti appropriati. La madre di Setzer ha avviato un’azione legale contro la società che ha sviluppato il chatbot, accusandola di progettare un sistema deliberatamente coinvolgente e inadeguato.

COSA PREVEDE LA LEGGE

La legge promossa da Padilla introduce regole fondamentali per i chatbot che interagiscono come “amici” o “partner”, vietando ai minori l’esposizione a contenuti sessuali, imponendo notifiche regolari che ricordino agli utenti minorenni che stanno interagendo con un’IA e richiedendo l’implementazione di protocolli per affrontare situazioni di ideazione suicida o autolesionismo.

Le piattaforme devono anche pubblicare un rapporto annuale sui collegamenti tra uso dei chatbot e ideazioni suicide, oltre a garantire un’azione legale privata per tutelare i diritti degli utenti.

LE REAZIONI DI ESPERTI E ORGANIZZAZIONI

La legge ha raccolto il sostegno di esperti di sicurezza online e bioetica, tra cui Jodi Halpern, professoressa di bioetica all’Università di Berkeley, che ha evidenziato come i chatbot non regolamentati possano causare danni gravi, soprattutto tra i minori e le persone vulnerabili. Halpern ha inoltre lodato la legge californiana come un importante passo avanti nel definire regole chiare e necessarie. Anche la Transparency Coalition ha accolto favorevolmente il provvedimento, auspicando ulteriori aggiornamenti normativi man mano che si comprenderanno meglio gli effetti negativi della tecnologia.

ALTRE MISURE CALIFORNIANE

Oltre al SB 243, il governatore Newsom ha firmato una serie di leggi che rafforzano le tutele per i bambini online, introducendo obblighi per le piattaforme di verificare l’età degli utenti, vietare l’accesso a contenuti inappropriati, apporre avvisi sui rischi legati ai social media, e aumentare le pene per la diffusione illegale di pornografia deepfake. La legge prevede inoltre linee guida per contrastare il cyberbullismo, affidando al Dipartimento dell’Istruzione della California il compito di adottare entro giugno 2026 una politica modello per la gestione degli episodi di cyberbullismo al di fuori dell’orario scolastico.

Altri Stati americani come Illinois, Nevada e Utah hanno invece già approvato leggi per limitare l’uso dei chatbot come sostituti delle cure professionali in ambito sanitario.

NO AL DIVIETO TOTALE DI ACCESSO AI CHATBOT PER I MINORI

Newsom ha tuttavia posto il veto su una proposta di legge che avrebbe proibito ai minori di utilizzare del tutto i chatbot a meno che le piattaforme non garantissero l’assenza di conversazioni sessualizzate o di contenuti incoraggianti l’autolesionismo. Il governatore ha spiegato che, pur condividendo l’esigenza di tutela, il disegno di legge imponeva restrizioni troppo ampie, rischiando un divieto totale per i minori, privandoli anche di strumenti utili come sistemi di tutoraggio o di riconoscimento precoce di disturbi.

INDAGINI E CASI APERTI

Le preoccupazioni sulla sicurezza dei chatbot basati sull’IA sono emerse in seguito a diversi casi tragici e cause legali, tra cui la morte di Adam Raine, un adolescente californiano che si è suicidato dopo interazioni con ChatGPT, e la causa intentata dalla famiglia di un’altra ragazza per conversazioni sessualmente esplicite con un chatbot di Character AI. La Federal Trade Commission ha avviato un’indagine sui chatbot di Alphabet (la società madre di Google), Character Technologies, Instagram, Meta Platforms, OpenAI, Snap e xAI per valutare i rischi per bambini e adolescenti derivanti dal loro uso.

COSA (NON) FANNO LE BIG TECH

Alcune aziende tecnologiche hanno iniziato a implementare misure di sicurezza rivolte agli utenti minori: Character AI ha dichiarato di collaborare con le autorità per conformarsi alla SB 243 e OpenAI ha annunciato il 30 settembre la sua versione di “parental control” che dà ai genitori la possibilità di limitare alcune funzionalità degli account dei figli.

Tuttavia, come osservava pochi giorni fa su Appunti Stefano Feltri, i nuovi strumenti rischiano di creare un falso senso di sicurezza e di esporre i dati dei minori all’addestramento degli algoritmi, oltre a creare “dinamiche inedite nel rapporto familiare”. In alcuni casi, infatti, le nuove impostazioni potrebbero spingere i genitori a condividere i propri account con i figli, esponendoli al rischio che i loro comportamenti vengano utilizzati per l’addestramento dell’algoritmo, se non si disattivano esplicitamente determinate opzioni.

Inoltre, l’accesso da parte dei genitori alle conversazioni dei figli con l’IA solleva questioni delicate. ChatGPT, infatti, si configura spesso come un “confessionale digitale”, favorendo la condivisione di aspetti intimi. Questo apre interrogativi su quanto sia legittimo, da parte dei genitori, monitorare conversazioni potenzialmente private e sugli effetti di tale ingerenza nel rapporto di fiducia familiare.

L’esperienza dei social, conclude Feltri, dimostra che “è inutile chiedere alle piattaforme di auto-regolarsi ed è anche difficile per il regolatore pubblico stare sempre al passo con l’innovazione”. Solo leggi e strumenti antitrust per limitare il potere delle piattaforme digitali e promuovere una concorrenza basata anche su trasparenza e tutela della privacy degli utenti possono fare la differenza.

Torna su