Di recente la piattaforma X ha iniziato a tradurre tutti i post (scritti nelle varie lingue) nella lingua nativa di chi li sta leggendo.
Proprio grazie a questa nuova funzione, qualche giorno fa ho potuto leggere un post scritto da Luiza Jarovsky, che parlava della nuova legge cinese sull’intelligenza artificiale.
Grazie all’articolo pubblicato da Luiza Jarovsky nella sua newsletter, ho capito meglio gli aspetti principali della legge. Per chi volesse leggere l’articolo, questo è il suo link.
La Cina è il primo Paese al mondo a obbligare le aziende di intelligenza artificiale a prevenire il rischio di antropomorfismo dell’IA per tutelare le persone.
La legge si chiama Interim Measures for the Management of Anthropomorphic AI Interaction Services. È stata pubblicata il 10 aprile 2026 e entrerà in vigore il 15 luglio 2026.Al momento, ad aprile 2026, le aziende hanno tre mesi di tempo per adeguarsi alla nuova normativa.
I punti principali della legge (dalla versione finale pubblicata dalle autorità cinesi) sono questi: la norma obbliga le aziende ad assumersi la responsabilità di sicurezza per l’intero ciclo di vita del servizio, dallo sviluppo iniziale fino alla chiusura. Devono inoltre introdurre misure concrete contro la dipendenza emotiva, la manipolazione psicologica e la sostituzione delle relazioni umane reali.
Per i minori le regole sono molto severe: è vietato offrire “compagni virtuali” o “parenti virtuali”, è obbligatoria una modalità protetta, serve il consenso dei genitori sotto i 14 anni e sono proibiti contenuti che possano spingere a comportamenti pericolosi, provocare emozioni estreme o far prendere cattive abitudini.
La legge impone anche un’etichettatura chiara: l’utente deve essere sempre avvertito che sta parlando con un’intelligenza artificiale e non con una persona reale. Le conversazioni non possono essere usate per addestrare i modelli senza un consenso separato e specifico.
Infine, tutta la normativa si basa sul principio cinese di “intelligenza verso il bene”, che cerca di unire lo sviluppo tecnologico con la tutela della società.
L’Unione Europea ha adottato l’AI Act (il Regolamento sull’Intelligenza Artificiale) il 13 marzo 2024. Il regolamento è entrato in vigore il 1° agosto 2024 e prevede un’applicazione graduale a partire dal 2025. Negli Stati Uniti non esiste ancora una legge federale specifica, ma alcuni Stati si stanno muovendo: New York a novembre 2025 e la California a gennaio 2026 hanno approvato norme dedicate ai “chatbot companion”, con obblighi di trasparenza, protocolli per prevenire l’autolesionismo e maggiori tutele per i minori.
Nonostante lo sforzo dei legislatori europei e americani di tutelare la salute delle persone, rispetto alla normativa cinese la strada da fare è ancora lunga.
La legge cinese, che entrerà in vigore in uno dei Paesi più restrittivi al mondo per quanto riguarda le libertà individuali, mostra però — anche se in modo chiaramente paternalistico — che lo Stato tiene davvero alla salute mentale dei suoi cittadini. Almeno questo è ciò che emerge dalla lettura del testo.
In Europa invece abbiamo lasciato troppo spazio all’autoregolamentazione delle Big Tech, permettendo loro di agire quasi indisturbate. Interveniamo solo in casi eccezionali, come è successo recentemente con Meta.
Resta però un fatto inconfutabile: il Paese che ha approvato questa legge è lo stesso che ha creato il sistema di Credito Sociale. Non mi aspetto grandi aperture sulle libertà individuali, eppure su questo punto specifico hanno dimostrato di aver capito molto bene il rischio dell’antropomorfismo dell’IA.
Osservo però che in Europa molte normative (AI Act, DSA, telecamere di monitoraggio nelle auto nuove, ecc.) possono essere lette in due modi: come strumenti di tutela o come forme di controllo sempre più pervasivo sulla nostra vita quotidiana. Insomma, un Credito Sociale soft, con un altro nome.
Nella sfida tecnologica i cinesi sono chiaramente avanti rispetto a noi, e non solo sul tema dell’antropomorfismo dell’IA.In Europa invece prevale spesso un entusiasmo quasi infantile per la tecnologia, oppure si creano commissioni e task force di “Algoetica” sia nelle istituzioni che nelle aziende. Sinceramente le vedo come tanto fumo e poco arrosto: si parla tanto di etica, ma si entra raramente nel merito dei rischi reali.
È vero che in Europa, oltre ad agevolare spesso le Big Tech, esiste anche una reale preoccupazione per i diritti fondamentali come la non-discriminazione, la privacy e la dignità umana. Questo è un punto importante che distingue l’approccio europeo da quello cinese, dove invece tutto viene subordinato alla stabilità del Partito e dello Stato.
Alla fine però resta chiaro un punto: senza una minima conoscenza informatica tra politici e manager, noi europei continueremo a perdere le sfide tecnologiche sia contro la Cina sia contro gli Stati Uniti.
Rimango poi davvero stupito dal fatto che i corpi intermedi — a partire dai sindacati — siano completamente assenti su questi temi. Forse non si rendono conto di quanti milioni di posti di lavoro, proprio in ambito di intelligenza artificiale, verranno persi nei prossimi anni.
Gli esperimenti recenti condotti in scenari di guerra dimostrano chiaramente quanto sia pericoloso affidarsi completamente all’IA.
Vi lascio con una domanda a cui non ho risposta: siamo davvero sicuri di voler consegnare tutto nelle mani dell’IA senza opporre alcuna resistenza?







