skip to Main Content

Linee Guida Intelligenza Artificiale

Sviluppo sicuro dell’Intelligenza artificiale? Accordo fra 23 Agenzie per la cybersicurezza

L’Agenzia per la cybersicurezza nazionale (Acn) ha aderito alle linee guida internazionali sulla sicurezza dell’Intelligenza Artificiale, primo documento siglato da 18 Paesi. Tuttavia, l'accordo non è vincolante...

Ventitrè Agenzie di diciotto Paesi occidentali hanno sottoscritto un accordo per la sicurezza dell’Intelligenza artificiale, basato sul principio che dovrebbe essere sicura fin dalla progettazione.

Tra questi l’Italia, dove l’Agenzia per la cybersicurezza nazionale (Acn) ha aderito alle “Linee guida per uno sviluppo sicuro dell’Intelligenza Artificiale”.

Il documento è stato promosso dal National cyber security centre del Regno Unito e reso pubblico oggi 27 novembre. Si tratta del primo documento congiunto internazionale per un uso sicuro dell’Intelligenza Artificiale. Le linee guida aiuteranno gli sviluppatori a creare un’IA responsabile, etica e sicura, rende noto l’Acn.

Nell’ultimo anno l’Intelligenza artificiale, in particolare modo l’Ia generativa, è diventata popolare dal debutto nel novembre 2022 di ChatGpt di OpenAI. Tale tecnologia sta però suscitando una serie di dubbi di natura etica, regolatoria ed economica, per effetto dei rischi potenziali legati alla violazione dei copyright e della privacy, ai potenziali utilizzi fraudolenti o a fini di disinformazione, sino alle ricadute strutturali sull’occupazione che già si profilano all’orizzonte in numerosi settori economici.

La tecnologia ha attirato infatti l’attenzione di governi e legislatori a livello globale.

“L’accordo è l’ultimo di una serie di iniziative – poche delle quali efficaci – da parte dei governi di tutto il mondo per modellare lo sviluppo dell’IA, il cui peso si fa sempre più sentire nell’industria e nella società in generale” osserva Reuters. Ma sarà davvero efficace?

Tutti i dettagli.

L’OBIETTIVO DELLE LINEE GUIDA SULL’INTELLIGENZA ARTIFICIALE SECONDO L’AGENZIA CYBER ITALIANA

Le linee guida per lo sviluppo di sistemi di intelligenza artificiale sicuri promosse dal National Cyber Security Center (NCSC) del Regno Unito, e sviluppate con la Cybersecurity and Infrastructure Security Agency (Cisa) degli Stati Uniti, sono considerate le prime nel loro genere ad essere concordate a livello globale, evidenzia Forbes.

L’obiettivo del documento è innalzare i livelli di cybersecurity dell’Intelligenza Artificiale per assicurare che sia progettata, sviluppata e impiegata in maniera sicura. La cybersicurezza è una pre-condizione essenziale dell’Ia e serve per garantire resilienza, privacy, correttezza ed affidabilità, ovvero un cyberspazio più sicuro, spiega l’Agenzia guidata da Bruno Frattasi.

A CHI SI RIVOLGONO

Le linee guida sono rivolte principalmente ai fornitori di sistemi di intelligenza artificiale che utilizzano modelli ospitati da un’organizzazione o che utilizzano interfacce di programmazione delle applicazioni (API) esterne. L’obiettivo è aiutare gli sviluppatori a garantire che la sicurezza informatica sia integrata come precondizione essenziale per la sicurezza del sistema di intelligenza artificiale e parte integrante del processo di sviluppo, dall’inizio e durante tutto.

Riguardano la progettazione sicura, compresa la comprensione dei rischi e la modellazione delle minacce, nonché i compromessi da considerare in merito alla progettazione del sistema e del modello, nonché le linee guida per lo sviluppo, tra cui la sicurezza della catena di fornitura, la documentazione e la gestione delle risorse e del debito tecnico.

I PAESI SOTTOSCRITTORI

I Paesi che hanno contribuito alle linee guida sono: Australia, Canada, Cile, Corea del Sud, Estonia, Francia, Germania, Giappone, Israele, Italia, Nigeria, Norvegia, Nuova Zelanda, Polonia, Regno Unito, Repubblica Ceca, Singapore e Stati Uniti.

LA POSIZIONE DI BRUNO FRATTASI, DIRETTORE DELL’ACN

“L’Intelligenza artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi – assicura il direttore generale di Acn, prefetto Bruno Frattasi -. Per questo abbiamo aderito con convinzione a questa iniziativa. È una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità”.

L’IMPEGNO ITALIANO SUL FRONTE AI

Proprio un mese fa, ha preso il via al Mimit la seconda riunione trilaterale tra Italia, Francia e Germania che ha avuto come oggetto la transizione digitale e l’intelligenza artificiale, in particolare il coordinamento sulle rispettive posizioni da tenere nel quadro dei negoziati in corso a livello unionale sulla proposta di Artificial intelligence Act, e negli altri fori internazionali. In questo senso anche “la prossima presidenza italiana del G7” sarà “uno snodo significativo”, spiegava il ministro delle Imprese e del Made in Italy Adolfo Urso.

Da ogni sponda dell’Atlantico (e non solo) è corsa infatti alla regolamentazione dell’intelligenza artificiale.

Il 30 ottobre il presidente degli Stati Uniti Joe Biden ha presentato un ordine esecutivo che prova a regolare l’uso dell’intelligenza artificiale. Nello stesso giorno, i leader del G7 hanno raggiunto un accordo sui principi guida internazionali sull’intelligenza artificiale e su un codice di condotta volontario per gli sviluppatori di IA nell’ambito del processo Hiroshima sull’IA. L’iniziativa fa parte di una più ampia gamma di discussioni internazionali sui guardrail per l’IA, tra cui l’Ocse, il partenariato globale sull’intelligenza artificiale (Gpai) e nel contesto del Consiglio per il commercio e la tecnologia Ue-Usa e dei Partenariati digitali dell’Ue.

IL NODO EFFICACIA DI QUESTE LINEE GUISA PER LO SVILUPPO SICURO DELL’INTELLIGENZA ARTIFICIALE

Ma le linee guida internazionali sulla sicurezza dell’Intelligenza Artificiale presentate oggi rappresentano il primo accordo internazionale dettagliato su come spingere le aziende a creare sistemi di Ia che siano “sicuri by design”.

Come riassume Reuters, questo accordo affronta questioni su come evitare che la tecnologia IA sia dirottata dagli hacker e include raccomandazioni come il rilascio dei modelli solo dopo adeguati test di sicurezza.Tuttavia, non affronta questioni spinose sugli usi appropriati dell’intelligenza artificiale o su come vengono raccolti i dati che alimentano questi modelli.

Sulla carta quindi tutto molto importante, ma le linee guida saranno altrettanto efficaci? Sempre Reuters evidenzia infatti che l’accordo non è vincolante. Il documento contiene raccomandazioni per lo più generali come il monitoraggio degli abusi dei sistemi di intelligenza artificiale, la protezione dei dati da manomissioni e il controllo dei fornitori di software.

Come chiosa Forbes, le nuove linee guida sono lunghe sui principi generali, ma scarse sui dettagli concreti.

Back To Top