skip to Main Content

Appaltatori Pentagono

Cosa prevede la nuova strategia del Pentagono per l’Intelligenza artificiale

Il Dipartimento della Difesa ha rilasciato una nuova strategia di adozione dell'intelligenza artificiale basata sui progressi del settore. La pubblicazione segue l’ordine esecutivo firmato dal presidente Biden

Il Pentagono ha pubblicato una nuova strategia per accelerare l’adozione da parte del dipartimento delle capacità di intelligenza artificiale.

“Accelerare l’adozione di dati avanzati, analisi e tecnologie di intelligenza artificiale rappresenta un’opportunità senza precedenti per fornire ai leader di dipartimento a tutti i livelli i dati di cui hanno bisogno per prendere decisioni migliori più velocemente”, ha dichiarato il 2 novembre Craig Martell, Chief Digital and AI Officer (CDAO) del Pentagono.

L’intelligenza artificiale ha fatto rapidi progressi quest’anno, in parte grazie alla crescita di grandi modelli linguistici, come ChatGPT, che analizzano enormi quantità di dati per prevedere risposte che altrimenti sembrerebbero umane. Questi programmi commerciali non soddisfano ancora gli standard dipartimentali, segnala Defense News. Proprio il vice segretario alla Difesa Kathleen Hicks ha ammesso che gran parte dell’innovazione in questo ambito “sta accadendo al di fuori del Dipartimento della Difesa e del governo”.

La nuova strategia arriva la scorsa settimana dopo la presentazione dell’ordine esecutivo sulla sicurezza e la privacy dell’IA emesso dalla Casa Bianca. Non solo, segue anche il primo summit globale sull’IA svoltosi a Bletchley Park, nel Regno Unito, al quale ha partecipato anche la vicepresidente Kamala Harris.

Tutti i dettagli.

GLI OBIETTIVI DELLA NUOVA STRATEGIA DI INTELLIGENZA ARTIFICIALE DEL PENTAGONO

Il 2 novembre il Dipartimento della Difesa degli Stati Uniti ha pubblicato una nuova strategia sull’uso dell’analisi dei dati e dell’Ai mentre spinge per ulteriori investimenti nell’intelligenza artificiale, nel riconoscimento avanzato dei modelli e nelle tecnologie autonome, compresi i droni.

Tra gli altri obiettivi delineati nella strategia ci sono set di dati migliori, infrastrutture migliorate, più partenariati con gruppi esterni al dipartimento e barriere interne riformate, che spesso impediscono alla tecnologia di avanzare più velocemente di quanto il dipartimento possa adottarla.

Con il documento, il Pentagono spiega ulteriormente il suo pensiero sull’IA mentre costruisce strutture interne per governarlo, sottolinea Defense News.

A CINQUE ANNI DALLA PRECEDENTE EDIZIONE

La “Strategia di adozione di dati, analisi e intelligenza artificiale 2023” è il primo aggiornamento della strategia AI del DoD dall’edizione del 2018.

La precedente strategia designava l’ormai defunto Centro congiunto di intelligenza artificiale come il “punto focale” per realizzare la sua visione, ricorda Breaking Defense. Il JAIC risulta inglobato nel Chief Digital and AI Office (CDAO) – che l’anno scorso è stato nominato hub centrale del Pentagono per tutto ciò che riguarda l’intelligenza artificiale – insieme al Defense Digital Service e ai team ADVANA.

PUBBLICATA DOPO L’ORDINE ESECUTIVO DI BIDEN

Inoltre, il rilascio della nuova strategia del Pentagono sull’Ai segue l’ordine esecutivo presentato lo scorso 31 ottobre dalla Casa Bianca.

Quest’ultimo prescrive al Dipartimento della Difesa di stabilire un programma pilota per identificare come l’intelligenza artificiale può individuare vulnerabilità nei software e nelle reti critici e sviluppare piani per attirare più talenti nell’intelligenza artificiale, tra le altre cose.

I TIMORI DEGLI ANALISTI

In particolare, l’ordine esecutivo ha sollevato interrogativi sul futuro dell’innovazione del Dipartimento della Difesa. “L’ordine esecutivo prevede alcuni requisiti piuttosto estesi per chiunque stia sviluppando o implementando modelli a duplice uso” ha osservato a Breaking Defense Klon Kitchen, analista al Beacon Global Strategies, una società di consulenza di Washington specializzata in global public policy,  appalti pubblici e analisi del rischio geopolitico.

L’ordine esecutivo stabilisce infatti “che gli sviluppatori dei più potenti sistemi di intelligenza artificiale condividano i risultati dei test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti” e che anche le agenzie federali ricevano indicazioni per il loro utilizzo dell’Ia.

GLI STRUMENTI DI AI GENERATIVI DISPONIBILI SUL COMMERCIO E L’UTILIZZO NEL DOD

Inoltre, il vice segretario alla Difesa Kathleen Hicks ha riconosciuto che fare affidamento sulle capacità commerciali significa che le tecnologie disponibili potrebbero non essere ancora compatibili con i principi etici dell’IA del Pentagono.

“La maggior parte dei sistemi disponibili in commercio abilitati da modelli linguistici di grandi dimensioni (LLM) non sono ancora tecnicamente abbastanza maturi per conformarsi ai nostri principi etici sull’intelligenza artificiale, necessari per un uso operativo responsabile”, ha dichiarato Hicks. “ Ma abbiamo trovato oltre 180 casi in cui tali strumenti di intelligenza artificiale generativa potrebbero aggiungere valore per noi, con supervisione, come aiutare a eseguire il debug e sviluppare software, analisi più rapida delle valutazioni dei danni in battaglia e riepilogo verificabile di testi sia da set di dati open source che classificati” ha aggiunto.

Nelle sue osservazioni, Hicks ha affermato che il Pentagono sta già utilizzando modelli propri. Ha citato i “componenti DoD” che stavano lavorando su programmi simili prima che ChatGPT diventasse popolare. Soprattutto, il vice segretario alla Difesa ha puntualizzato che l’addestramento di questi modelli è avvenuto sui dati del Pentagono.

L’AI GENERATIVA IN CAMPO MILITARE

Infine, l’impiego dell’intelligenza artificiale generativa in ambito militare è controverso ricorda ancora Defense News.

Il suo vantaggio principale è la capacità di semplificare attività semplici o banali, come trovare file, trovare informazioni di contatto e rispondere a semplici domande. Ma la tecnologia è utilizzata anche per alimentare attacchi informatici, tentativi di spoofing e campagne di disinformazione.

Proprio dall’incontro con il primo ministro britannico, Rishi Sunak, a margine del vertice sulla sicurezza dell’Ia svoltosi nel Regno Unito la scorsa settimana, il miliardario americano Elon Musk ha descritto l’intelligenza artificiale come una sorta di “genio” della bottiglia in grado di avverare potenzialmente tutti i desideri. La situazione però potrebbe sfuggire di mano come nel caso dei “robot umanoidi” sempre più sofisticati e capaci di adattarsi all’ambiente circostante e di apprendere, al fine di svolgere compiti sempre più complessi per aiutare l’uomo.

A questo punto Musk si è interrogato su “Cosa accadrebbe se un giorno ricevessero un aggiornamento software e non fossero più così amichevoli?”,  ipotizzando una rivolta delle macchine e quindi l’insorgere di robot killer. Musk e Sunak si sono trovati d’accordo sulla possibile necessità di “spegnimenti” fisici per evitare che i robot vadano fuori controllo in modo pericoloso, facendo riferimento al franchise cinematografico “The Terminator” e ad altri film di fantascienza.

Dall’altra sponda dell’Atlantico, il vice segretario alla Difesa americano ha dichiarato che gli esseri umani rimarranno responsabili dell’uso della forza letale e, come affermato nell’ultima revisione del Pentagono sulle sue armi nucleari, manterranno il controllo di tutte le decisioni riguardanti l’arsenale strategico.

“Siamo consapevoli dei potenziali pericoli dell’intelligenza artificiale e siamo determinati a evitarli”, ha sostenuto Hicks.

Back To Top