Il Parlamento europeo ha approvato una risoluzione non vincolante che chiede di rafforzare la protezione dei minori online, proponendo un’età minima armonizzata di 16 anni per l’accesso ai social media, alle piattaforme di video sharing e ai “compagni IA“. La decisione, sostenuta da una larga maggioranza, arriva mentre cresce il dibattito internazionale sui rischi legati all’uso eccessivo delle piattaforme digitali da parte degli adolescenti.
L’AZIONE DEL PARLAMENTO EUROPEO
Secondo la relazione approvata con 483 voti favorevoli, 92 contrari e 86 astensioni, gli eurodeputati chiedono misure più incisive per contrastare i rischi fisici e mentali associati alla presenza digitale dei minori. Il Parlamento sollecita un rafforzamento della protezione contro strategie manipolative e funzionalità che possono favorire dipendenza, problemi di concentrazione e difficoltà di interazione con i contenuti digitali.
“Insieme a una forte e coerente applicazione del Digital Services Act, queste misure aumenteranno drasticamente il livello di protezione per i bambini. Stiamo finalmente tracciando una linea. Stiamo dicendo chiaramente alle piattaforme: i vostri servizi non sono progettati per i minori. E l’esperimento finisce qui”, ha detto Christel Schaldemose, relatrice della proposta.
UN’ETÀ MINIMA DIGITALE
La risoluzione suggerisce l’introduzione di un’età minima digitale di 16 anni per accedere a social media, piattaforme video e compagni virtuali basati sull’IA, consentendo l’accesso dai 13 ai 16 anni solo con il consenso dei genitori. Il Parlamento ricorda che la maggior parte delle piattaforme richiede già un’età minima di 13 anni, ma le salvaguardie risultano deboli e molti under 13 hanno account attivi. Il testo invita inoltre a definire un limite minimo assoluto di 13 anni per qualsiasi accesso.
VERIFICA DELL’ETÀ E RESPONSABILITÀ DELLE PIATTAFORME
Gli eurodeputati sostengono i piani della Commissione per sviluppare un’app Ue di verifica dell’età e il portafoglio europeo di identità digitale, precisando che tali sistemi devono tutelare la privacy dei minori e non sollevare le piattaforme dalle loro responsabilità. È inoltre proposta la possibilità di rendere i dirigenti di alto livello personalmente responsabili in caso di gravi e persistenti violazioni delle norme sulla protezione dei minori.
DIVIETI SU FUNZIONALITÀ CHE CREANO DIPENDENZA
Il Parlamento invita a vietare le pratiche più dannose e a disattivare di default altre funzioni che creano dipendenza, come scroll infinito, autoplay, pull-to-refresh, meccanismi di ricompensa e forme di gamificazione considerate problematiche. La risoluzione richiama il fatto che “le caratteristiche di design che creano dipendenza sono spesso intrinseche al modello di business delle piattaforme, in particolare i social media”.
MISURE CONTRO LE TECNOLOGIE PERSUASIVE
Il testo sollecita inoltre un intervento più deciso contro pubblicità mirata, marketing degli influencer, dark pattern e altre forme di design manipolativo, nell’ambito del futuro Digital Fairness Act. L’obiettivo è limitare l’esposizione dei minori ai sistemi di raccomandazione basati sull’engagement e contrastare lo sfruttamento commerciale, inclusi gli incentivi economici per i minori che svolgono attività da influencer.
TUTELA NEL GAMING E CONTRASTO AI CONTENUTI ILLECITI
La relazione chiede il divieto di loot box (pacchetti virtuali nei videogiochi che contengono oggetti casuali, il cui contenuto non è conosciuto finché non vengono aperte), valute virtuali legate alla casualità e funzioni pay-to-progress (ovvero sistemi di gioco in cui è necessario spendere soldi per avanzare più rapidamente nel gioco), oltre a un’applicazione più severa del Digital Services Act nelle piattaforme di video online. Gli eurodeputati propongono anche il blocco dei siti che non rispettano le norme Ue.
LE SFIDE DELL’IA
Il Parlamento richiede un’azione urgente sulle implicazioni etiche e legali degli strumenti di IA generativa, come deepfake, chatbot-compagni, agenti IA e applicazioni che producono nudità manipolate non consensuali.
CHI FA (GIÀ) COSA NELL’UE…
Il dibattito si inserisce in un contesto di crescente preoccupazione globale, con cause legali avviate negli Stati Uniti contro TikTok, Snapchat, Google e Meta per presunto contributo alla crisi di salute mentale tra i giovani. La risoluzione europea arriva mentre Australia, Danimarca e Malesia valutano o introducono divieti simili e mentre alcuni Stati membri dell’Ue, come Francia, Germania e Italia, hanno già implementato limiti o controlli sull’uso dei social da parte dei minori.
La Francia, per esempio, ha introdotto già dal 2023 norme che richiedono il consenso dei genitori per l’iscrizione ai social fino ai 15 anni, mentre la Germania consente l’uso delle piattaforme solo dai 13 ai 16 anni con autorizzazione parentale, pur con controlli considerati ancora insufficienti.
In Italia è necessario il consenso dei genitori sotto i 14 anni, soglia che consente ai ragazzi più grandi di registrarsi autonomamente. In Belgio l’età minima è fissata a 13 anni senza obbligo di autorizzazione, mentre i Paesi Bassi non hanno introdotto un limite specifico ma stanno intervenendo sull’uso degli smartphone nelle scuole.
Anche nei Paesi scandinavi si va verso misure più restrittive: la Norvegia ha proposto di alzare l’età a 15 anni per accettare le condizioni d’uso delle piattaforme e la Danimarca ha appena raggiunto un accordo per introdurre un limite minimo di 15 anni su alcuni social.
…E AL DI FUORI
Al di fuori dell’Unione, diversi Paesi stanno adottando approcci più restrittivi: l’Australia sta valutando un divieto sotto i 16 anni con sistemi di verifica dell’età obbligatori; il Regno Unito, con l’Online Safety Act, impone alle piattaforme responsabilità estese per la protezione dei minori; negli Stati Uniti alcuni Stati hanno già introdotto limiti severi, tra cui il consenso parentale obbligatorio, coprifuoco per le app e restrizioni sui meccanismi che creano dipendenza.
DATI SULL’USO DEI DISPOSITIVI E PERCEZIONE PUBBLICA
Le ricerche citate dal Parlamento mostrano che il 97% dei giovani si connette online ogni giorno e il 78% dei ragazzi tra 13 e 17 anni controlla il telefono almeno una volta all’ora; mentre un minore su quattro presenta un uso dello smartphone definito “problematico” o “disfunzionale”.
Infine, l’Eurobarometer 2025 indica che oltre il 90% degli europei considera urgente la protezione dei minori online, in particolare rispetto a salute mentale, cyberbullismo e accesso a contenuti non adatti all’età.



