skip to Main Content

Regolamentare Intelligenza Artificiale

Ue, Usa e non solo. È corsa a regolamentare (senza vincoli) l’intelligenza artificiale

Ieri il presidente Usa ha presentato un ordine esecutivo che stabilisce nuovi standard sulla sicurezza e sulla protezione della privacy per l’intelligenza artificiale. Nel frattempo, arriva l'intesa tra i Paesi del G7 sul codice di condotta sull'IA e riunione al Mimit su transizione digitale e IA tra Italia, Francia e Germania. Ma in prima linea nella regolamentazione della tecnologia emergente resta l'Ue con il suo incisivo AI Act.

Da ogni sponda dell’Atlantico (e non solo) è corsa alla regolamentazione dell’intelligenza artificiale.

Il 30 ottobre il presidente degli Stati Uniti Joe Biden ha presentato un ordine esecutivo che prova a regolare l’uso dell’intelligenza artificiale. È la prima volta che il governo Usa intraprende azioni concrete per contenere i rischi della nuova tecnologia e del suo utilizzo in svariati campi.

Come sottolinea Bloomberg, l’ordine esecutivo di Biden precede un viaggio della vicepresidente Kamala Harris e dei leader del settore per partecipare a un vertice ospitato nel Regno Unito sui rischi dell’intelligenza artificiale, offrendole un piano statunitense da presentare sulla scena mondiale.

Sempre ieri i leader del G7 hanno raggiunto un accordo sui principi guida internazionali sull’intelligenza artificiale e su un codice di condotta volontario per gli sviluppatori di IA nell’ambito del processo Hiroshima sull’IA, riporta l’Ansa. L’iniziativa fa parte di una più ampia gamma di discussioni internazionali sui guardrail per l’IA, tra cui l’Ocse, il partenariato globale sull’intelligenza artificiale (Gpai) e nel contesto del Consiglio per il commercio e la tecnologia Ue-Usa e dei Partenariati digitali dell’Ue.

Non solo, ieri mattina ha preso il via al Mimit la seconda riunione trilaterale tra Italia, Francia e Germania che ha avuto come oggetto la transizione digitale e l’intelligenza artificiale, in particolare il coordinamento sulle rispettive posizioni da tenere nel quadro dei negoziati in corso a livello unionale sulla proposta di Artificial intelligence Act, e negli altri fori internazionali.

Perché, come sottolinea Reuters, “l’Ue è stata in prima linea nella regolamentazione della tecnologia emergente con il suo incisivo AI Act”. La proposta di regolamento, giunta ormai alle fasi finali, detta nuove regole per lo sviluppo e l’utilizzo dei sistemi di IA nell’Ue, prevedendo una serie di obblighi e divieti in base al rischio connesso.

Tutti i dettagli.

L’ORDINE ESECUTIVO DI BIDEN PER REGOLAMENTARE L’INTELLIGENZA ARTIFICIALE

È un inizio settimana cominciato nel segno della regolamentazione dell’intelligenza artificiale per frenare i rischi posti dalla nuova tecnologia.

A partire dagli Stati Uniti, dove l’ordine esecutivo siglato da Biden si impegna a creare standard di sicurezza e protezione e richiederà ad alcune società che lavorano sull’intelligenza artificiale di condividere i risultati dei test di sicurezza con il governo. Inoltre Biden chiede che si valuti se gli algoritmi promuovano la discriminazione soprattutto quando sono usati per le sentenze, nella prevenzione dei reati, negli appalti o nelle assunzioni, soprattutto di minoranze o di immigrati.

Inoltre il presidente chiede protezione dei consumatori soprattutto in campo sanitario ed educativo. La Casa Bianca inviata ad una collaborazione a livello internazionale di tutti i governi per implementare gli standard d’uso dell’IA in tutto il mondo.

L’ordine appresenta il passo più ampio compiuto finora dall’amministrazione nell’affrontare le minacce legate all’intelligenza artificiale, dalla sicurezza nazionale alla concorrenza e alla privacy dei consumatori, osserva il Financial Times.

LE CONSEGUENZE PER BIG TECH

In base all’ordine esecutivo, le aziende i cui modelli di intelligenza artificiale potrebbero minacciare la sicurezza nazionale degli Stati Uniti dovranno condividere come stanno garantendo la sicurezza dei loro strumenti.

Sviluppatori come Microsoft, Amazon e Google saranno incaricati di sottoporre potenti modelli di intelligenza artificiale a test di sicurezza e di presentare i risultati al governo prima del loro rilascio pubblico, sottolinea Bloomberg. Probabilmente si applicherà solo ai sistemi futuri, non a quelli già presenti sul mercato, ha affermato un alto funzionario dell’amministrazione americana.

“Questo ordine esecutivo invia un messaggio fondamentale: l’intelligenza artificiale utilizzata dal governo degli Stati Uniti sarà un’intelligenza artificiale responsabile”, ha affermato in una nota il presidente e amministratore delegato di Ibm, Arvind Krishna.

L’azione dell’amministrazione si basa sugli impegni volontari per implementare in modo sicuro l’intelligenza artificiale adottata da più di una dozzina di aziende durante l’estate su richiesta della Casa Bianca e sul suo progetto per una “Carta dei diritti dell’intelligenza artificiale”, una guida per lo sviluppo e l’uso sicuri.

TRILATERALE ITALIA-GERMANIA-FRANCIA SU AI

Nel frattempo, nel Vecchio Continente, ieri il ministro delle Imprese e del Made in Italy, Adolfo Urso, il vice cancelliere e ministro dell’Economia e dell’Azione per il clima tedesco, Robert Habeck e il ministro dell’Economia delle Finanze e della Sovranità Industriale e Digitale francese, Bruno Le Maire si sono riuniti a Roma per il secondo trilaterale per rilanciare la cooperazione in settori strategici per l’Ue come l’importanza dell’IA come motore di innovazione nel settore industriale.

“Ci troviamo a Roma con la stessa formula di Berlino sul tema altrettanto sfidante e consequenziale dell’intelligenza artificiale e della rivoluzione digitale” ha dichiarato il ministro delle Imprese e del Made in Italy, Adolfo Urso, in conferenza stampa, al termine del trilaterale Italia-Germania-Francia al Mimit sulla transizione digitale e l’intelligenza artificiale. “Ci ritroveremo successivamente a Parigi per completare questo trilogo sulla tecnologia green. Oggi a Roma sull’intelligenza artificiale ci siamo trovati nella comune condivisione di implementare il trilogo che dovrebbe completare a breve il regolamento sull’intelligenza artificiale al fine di frenare quella eccessiva regolamentazione che potrebbe essere un freno eccessivo all’innovazione”, fondamentale per “competere a livello globale”.

“Intendiamo condividere i venture capital che i nostri Paesi possono mettere a regime per supportare l’attività delle imprese”, ha spiegato. In questo senso anche “la prossima presidenza italiana del G7” sarà “uno snodo significativo”, ha aggiunto Urso. E “l’Italia è su questa strada consapevolmente. Stiamo realizzando un quadro normativo che aiuti l’innovazione, che acceleri sulla strada dell’intelligenza artificiale e che sarà in sintonia con quello che decideremo in sede europea”.

IL CODICE DI CONDOTTA DEL G7

Proprio dal G7 è arrivata la notizia di un accordo sui principi guida internazionali sull’intelligenza artificiale e su un codice di condotta volontario per gli sviluppatori di IA nell’ambito del processo Hiroshima sull’IA.

Il documento approvato da Italia, Francia, Usa, Giappone, Regno Unito, Germania e Canada  prevede “una lista non esaustiva” di undici punti che punta a promuovere una AI sicura e affidabile, riporta Repubblica.

Gli undici principi guida, che insieme al codice di condotta saranno rivisti e aggiornati qualora necessario, forniscono indicazioni alle organizzazioni che sviluppano, distribuiscono e utilizzano sistemi avanzati di IA, come i modelli di fondazione e l’IA generativa, per promuovere la sicurezza e l’affidabilità della tecnologia. Le linee guida prevedono l’impegno a ridurre i rischi e gli abusi e a identificare le vulnerabilità, a incoraggiare una condivisione responsabile delle informazioni, a segnalare gli incidenti e a investire nella sicurezza informatica, nonché un sistema di etichettatura per consentire agli utenti di identificare i contenuti generati dall’IA.

Per la presidente Ursula von der Leyen, tra i firmatari della dichiarazione dei leader del G7 rilasciata dalla presidenza giapponese del G7 per il 2023, i principi e il codice di condotta sull’IA “riflettono i valori dell’Ue per promuovere un’IA affidabile”.

L’IMPEGNO ITALIANO

 “Il G7 2023 che si sta chiudendo, ha registrato un impegno sostanziale dei Paesi membri nei confronti dell’Intelligenza Artificiale e della sua variante generativa” ha commentato Alessio Butti, sottosegretario alla presidenza del Consiglio con delega all’Innovazione e alla Trasformazione digitale.
“Dal prossimo gennaio toccherà all’Italia sviluppare un ampio confronto in seno al G7, con l’obiettivo di orientare il dibattito globale – ha proseguito il sottosegretario Alessio Butti -. Il punto di partenza sarà proprio la presa in carico del testimone per assicurare continuità alla iniziativa già avviata. Il prossimo G7 potrà essere il G7 dell’Ia. Contemporaneamente procederemo a livello nazionale con la definizione di una strategia del governo sul settore. Abbiamo già costituito la scorsa settimana il comitato di esperti di alto profilo internazionale che ci supporterà nella definizione delle linee strategiche e definiremo le politiche idonee allo sviluppo di un settore industriale fondato sulle competenze di settore, sul rilancio della ricerca e su una rinnovata collaborazione tra imprese ed università italiane. In questo quadro stiamo anche pensando ad un primo appuntamento, una sorta di chiamata generale per gli Stati generali dell’Ia italiana, che definiremo a breve”.
Back To Top