Il prossimo 2 agosto 2025 segnerà una tappa importante nel percorso verso la piena applicazione del Regolamento europeo sull’intelligenza artificiale (AI Act), la cui adozione definitiva è prevista per il 2 agosto 2026. In particolare, tra le altre, entreranno in vigore due disposizioni chiave, che coinvolgeranno sia gli Stati membri sia i fornitori di modelli di intelligenza artificiale per scopi generali, ma l’Italia è già in ritardo sulla tabella di marcia.
Cosa prevedono le due disposizioni?
1. Designazione delle Autorità nazionali di controllo
Entro il 2 agosto 2025, ogni Stato membro dell’Unione Europea dovrà istituire o designare un’Autorità nazionale di controllo responsabile dell’attuazione del Regolamento AI Act. Questa Autorità, che opererà in coordinamento con le altre autorità europee (tra cui il Consiglio europeo per l’IA), dovrà essere dotata di:
- poteri di vigilanza;
- strumenti sanzionatori (che, quanto alle pratiche di IA già vietate dal 2 febbraio 2025, entrerebbero anch’essi in vigore il 2 agosto 2025, e che saranno attivabili nella loro interezza a partire dal 2 agosto 2026);
- risorse adeguate a garantire la propria operatività.
Nel caso dell’Italia, si prevede che l’Autorità competente venga identificata con l’approvazione del Disegno di legge sull’intelligenza artificiale attualmente in discussione. Al momento il ddl designa, quali autorità nazionali per l’intelligenza artificiale, l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN).
Tuttavia, ad oggi nessuna Autorità è stata formalmente istituita ed è quindi difficile che il termine del prossimo 2 agosto venga rispettato. Inoltre, sul sito del Senato, il provvedimento risulta “collegato alla legge di Bilancio”; dunque, salvo novità, la sua approvazione dipenderà da quella di quest’ultima (31 dicembre di ciascun anno).
2. Obblighi per i fornitori di modelli di AI per scopi generali
Sempre a partire dal 2 agosto 2025, entreranno in vigore anche gli obblighi per i fornitori di modelli di intelligenza artificiale a finalità generali (General Purpose AI models). Questi soggetti dovranno:
- garantire trasparenza sul funzionamento dei modelli;
- rispettare il diritto d’autore, sia a livello europeo che nazionale;
- valutare e mitigare i rischi sistemici, soprattutto se operano con modelli particolarmente avanzati o ad alto impatto.
Queste disposizioni rappresentano un primo concreto passo verso una regolamentazione responsabile e armonizzata dell’intelligenza artificiale nel mercato europeo.