skip to Main Content

Pentagono Ordine AI

Tutte le conseguenze per il Pentagono dall’ordine di Biden sull’Ai

L'ordine esecutivo sull'intelligenza artificiale (Ai) della Casa Bianca solleva interrogativi sul futuro dell'innovazione del Dipartimento della Difesa. “L’ordine esecutivo prevede alcuni requisiti piuttosto estesi per chiunque stia sviluppando o implementando modelli a duplice uso" sostiene un esperto sentito da Breaking Defense

L’ordine esecutivo della Casa Bianca per regolare l’AI imbriglierà l’innovazione del Dipartimento della Difesa?

È l’interrogativo sollevato da Breaking Defense. Il 30 ottobre il presidente degli Stati Uniti Joe Biden ha presentato un ordine esecutivo che prova a regolare l’uso dell’intelligenza artificiale. Presentato come una delle “azioni più significative mai intraprese da un governo per far avanzare il campo della sicurezza dell’intelligenza artificiale” al fine di “garantire che l’America sia all’avanguardia” nella gestione dei rischi posti dalla tecnologia. È la prima volta che il governo Usa intraprende azioni concrete per contenere i rischi della nuova tecnologia e del suo utilizzo in svariati campi.

Una scheda informativa della Casa Bianca sull’ordine delinea i passi che le aziende e il governo saranno tenuti a intraprendere per promuovere un’intelligenza artificiale responsabile. Tra questi, la richiesta alle società che lavorano sull’intelligenza artificiale di condividere i risultati dei test di sicurezza con il governo, informazioni mantenute solitamente private.

Inoltre, l’ordine si impegna a creare standard di sicurezza. Ma la nuova normativa su come il mondo commerciale sviluppa l’intelligenza artificiale potrebbero avere un impatto sul modo in cui il Dipartimento della Difesa e l’industria collaborano in futuro, con molti effetti sconosciuti che dovranno essere risolti, osserva la testata americana specializzata in difesa.

“Ciò che conta davvero è il modo in cui questi vari dipartimenti e agenzie inizieranno effettivamente a costruire le regole e a interpretare le indicazioni che hanno ricevuto nell’ordine esecutivo”, ha detto a Breaking Defense Klon Kitchen di Beacon Global Strategies, una società di consulenza di Washington specializzata in global public policy,  appalti pubblici e analisi del rischio geopolitico.

Tutti i dettagli.

COSA PREVEDE L’ORDINE ESECUTIVO FIRMATO DA BIDEN

In particolare, l’ordine esecutivo stabilisce “che gli sviluppatori dei più potenti sistemi di intelligenza artificiale condividano i risultati dei test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti” e che anche le agenzie federali ricevano indicazioni per il loro utilizzo dell’intelligenza artificiale.

La disposizione si applicherebbe ai modelli futuri che vanno oltre una specifica soglia di potenza di calcolo e non comporterebbe alcuna restrizione o rimozione degli strumenti di intelligenza artificiale esistenti sul mercato, ha affermato un alto funzionario dell’amministrazione.

Inoltre, la portata dell’ordine esecutivo va oltre gli impegni volontari che la Casa Bianca ha ottenuto dalle società di intelligenza artificiale e richiede la notifica in conformità con il Defense Production Act.

LE IMPLICAZIONI DELL’ORDINE ESECUTIVO SULL’AI PER IL PENTAGONO

Dunque le aziende che sviluppano modelli di AI che comportano seri rischi per la salute e la sicurezza pubblica, l’economia o la sicurezza nazionale dovranno informare il governo federale durante la formazione del modello e condividere i risultati dei test di sicurezza prima di rendere pubblici i modelli secondo quanto stabilisce l’ordine esecutivo della Casa Bianca.

“Penso che la più grande implicazione per il Dipartimento della Difesa sia l’impatto che ciò avrà sull’acquisizione perché… chiunque stia sviluppando modelli di intelligenza artificiale e voglia fare affari con il Dipartimento della Difesa dovrà aderire a questi nuovi standard”, ha spiegato a Breaking Defense Klon Kitchen, responsabile della tecnologia globale pratica politica presso Beacon Global Strategies.

“L’ordine esecutivo prevede alcuni requisiti piuttosto estesi per chiunque stia sviluppando o implementando modelli a duplice uso”, ha aggiunto Kitchen. “Quindi tutti i principali appaltatori, integratori e cose del genere avranno requisiti di reporting piuttosto significativi associati ai loro modelli di frontiera”.

IL NODO NEL RACCORDO TRA INDUSTRIA E GOVERNO

A Breaking Defense Kitchen ha osservato che, sebbene sembri esserci un “allineamento voluto” tra l’ordine esecutivo del 30 ottobre e le politiche sull’intelligenza artificiale del Dipartimento della Difesa, come la strategia di intelligenza artificiale responsabile e il percorso di implementazione, ci saranno “alcune inevitabili disgiunzioni che dovranno essere risolte”.

“La mia interpretazione è che l’amministrazione lo capisce e sta cercando… di non imporre oneri eccessivi al settore, cercando allo stesso tempo di affrontare in modo significativo le preoccupazioni reali”, ha affermato l’analista. “L’industria e il governo non saranno sicuramente d’accordo su dove dovrebbero essere tracciate queste linee, ma interpreto l’ordine esecutivo come uno sforzo generale in buona fede per avviare quella conversazione”.

Secondo la scheda informativa, il National Institute of Standards and Technologies svilupperà standard per garantire che l’intelligenza artificiale sia sicura e le agenzie federali come i dipartimenti per la sicurezza nazionale e l’energia affronteranno l’impatto delle minacce dell’intelligenza artificiale sulle infrastrutture critiche.  Secondo Kitchen, “ciò che conta davvero è il modo in cui questi vari dipartimenti e agenzie inizieranno effettivamente a elaborare le regole e a interpretare la guida che hanno ricevuto nell’ordine esecutivo”.

Back To Top