skip to Main Content

Intelligenza Artificiale Stati Uniti

Perché l’intelligenza artificiale di ChatGpt spaventa il Pentagono

Mentre l'esercito americano è ansioso di utilizzare l'intelligenza artificiale generativa, il responsabile dell'intelligenza artificiale del Pentagono è "spaventato a morte" dal potenziale di tecnologie come ChatGpt

L’intelligenza artificiale generativa (quella di ChatGpt) preoccupa il responsabile AI del Pentagono.

“Ecco la mia più grande paura su ChatGPT: è stato addestrato per esprimersi in modo fluente. Parla fluentemente e autorevolmente. Quindi ci credi anche quando è sbagliato… E questo significa che è uno strumento perfetto per la disinformazione…”. È quanto ha affermato Craig Martell, Chief Digital and AI Officer del Dipartimento della Difesa, alla conferenza TechNet Cyber ​​di AFCEA a Baltimora il 3 maggio, ripreso da Breaking Defense.

L’IA generativa negli ultimi mesi è diventata incredibilmente popolare da ChatGPT di OpenAI, che lo scorso novembre ha accumulato più di 1 milione di utenti entro una settimana dal suo lancio. Tale tecnologia sta però suscitando una serie di dubbi di natura etica, regolatoria ed economica, per effetto dei rischi potenziali legati alla violazione dei copyright e della privacy, ai potenziali utilizzi fraudolenti o a fini di disinformazione, sino alle ricadute strutturali sull’occupazione che già si profilano all’orizzonte in numerosi settori economici. Proprio questa settimana Geoffrey Hinton, considerato il “padrino dell’Intelligenza artificiale” ha lasciato il suo ruolo in Google per poter parlare liberamente dei rischi dell’AI.

Mentre l’esercito americano è ansioso di utilizzare l’intelligenza artificiale generativa, il funzionario del Pentagono incaricato di accelerare le sue capacità di intelligenza artificiale avverte che potrebbe anche diventare lo “strumento perfetto” per la disinformazione.

L’avvertimento di Martell arriva mentre i leader del Pentagono stanno anticipando i modi per utilizzare l’IA generativa per la raccolta di informazioni e la futura guerra.

Nel frattempo il 4 maggio la Casa Bianca ha convocato le principali società di intelligenza artificiale, tra cui Google e Microsoft, per discutere dei rischi e delle misure di salvaguardia mentre la tecnologia attira l’attenzione di governi e legislatori a livello globale.

Tutti i dettagli.

I TIMORI LEGATI ALL’AI SUL MODELLO CHATGPT DELLO CHIEF DIGITAL AND AI OFFICER DEL PENTAGONO

“Sì, sono spaventato a morte. Questa è la mia opinione” ha detto Craig Martell. Martell si riferiva specificamente ai modelli di linguaggio generativi dell’intelligenza artificiale, come ChatGPT, che pongono un “problema affascinante”. Secondo Martell “non capiscono il contesto e le persone prenderanno le loro parole come fatti perché i modelli parlano in modo autorevole”.

Pertanto “Abbiamo davvero bisogno di strumenti per essere in grado di rilevare quando sta accadendo e per essere in grado di avvisare quando sta accadendo. E non abbiamo quegli strumenti”, ha spiegato il responsabile AI del Pentagono. “Siamo indietro in quella lotta.”

Il Chief Digital and Artificial Intelligence Office, che Martell dirige, è il principale responsabile degli sforzi di intelligenza artificiale del Dipartimento della Difesa e di tutta l’infrastruttura informatica del Pentagono.

Quindi alla conferenza di Baltimora Martell ha sollecitato l’industria affinché realizzi gli strumenti necessari per garantire che le informazioni generate da tutti i modelli di intelligenza artificiale generativa, dal linguaggio alle immagini, siano accurate.

NON TUTTI CONDIVIDONO QUESTE PREOCCUPAZIONI AI VERTICI DELLA DIFESA USA

Tuttavia, non tutti nel Dipartimento della Difesa condividono l’apprensione di Martell sull’intelligenza artificiale e sui modelli di linguaggio di grandi dimensioni, come osserva Defense One. Alla stessa conferenza, Robert Skinner, direttore della Defense Information Systems Agency (DISA), ha iniziato il suo discorso di apertura utilizzando un’intelligenza artificiale generativa che ha clonato la sua voce e ha pronunciato le sue osservazioni di apertura.

Parlando ai giornalisti durante una tavola rotonda sempre il 3 maggio, il direttore della Disa ha sostenuto: “In generale non ne sono spaventato… penso che sarà una sfida”, per il Dipartimento della Difesa usare correttamente l’IA, ma la sfida è quella che il Dipartimento della Difesa può affrontare. “Quello di cui sono cauto è: questo deve essere un problema a livello nazionale”.

“L’IA generativa, direi, è probabilmente una delle tecnologie e delle iniziative più dirompenti da molto, molto tempo”, ha evidenziato Skinner. “Coloro che lo sfruttano e possono capire come sfruttarlo al meglio, ma anche come proteggersi al meglio da esso, saranno quelli che avranno la meglio”.

L’INCONTRO ALLA CASA BIANCA CON GOOGLE E MICROSOFT

Infine, proprio il 4 maggio la Casa Bianca ha ospitato un incontro degli amministratori delegati delle principali società coinvolte nello sviluppo dell’intelligenza artificiale, incluse Google e Microsoft, per discutere i rischi insiti in tale tecnologia e nelle sue applicazioni, e le misure da adottare per mitigarli.

“Puntiamo ad avere una discussione franca in merito ai rischi che scorgiamo nello sviluppo corrente e a breve termine dell’Ia”, ha dichiarato un funzionario anonimo della Casa Bianca, secondo cui “la nostra Stella polare è l’idea che per cogliere i benefici di questa tecnologia, dobbiamo cominciare gestendone i rischi”. Anche il presidente Joe Biden ha usato ChatGPT, ha rivelato a Reuters un funzionario della Casa Bianca.

“Sarà sicuramente una sfida, ma sono sicuro che possiamo gestirla” ha aggiunto il funzionaro. L’amministrazione ha anche annunciato un investimento di 140 milioni di dollari da parte della National Science Foundation per lanciare sette nuovi istituti di ricerca sull’IA e ha affermato che l’Office of Management and Budget della Casa Bianca rilascerà una guida politica sull’uso dell’IA da parte del governo federale.

Back To Top