skip to Main Content

Polonia

Con l’Intelligenza artificiale gli Usa trasformeranno i carri armati in armi letali autonome

L'esercito degli Stati Uniti vuole trasformare i carri armati in macchine autonome e letali grazie all'intelligenza artificiale

L’intelligenza artificiale potrebbe diventare letale. Come riporta Quartz, una nuova iniziativa dell’esercito americano fa presagire “un altro significativo passo verso armi letali autonome”. È l’allarme lanciato da Stuart Russell, professore di informatica presso la Berkeley University ed esperto mondiale di AI.

CARRI ARMATI AUTONOMI E CON TARGETING DEGLI OBIETTIVI

Lo scorso 11 febbraio l’Army Contracting Command dell’esercito degli Stati Uniti ha postato una call per potenziali fornitori dell’industria e del mondo accademico. Quest’ultimi sono invitati a presentare idee e proposte per agevolare lo sviluppo di Atlas – Advanced Targeting and Lethality Automated System: il nuovo sistema avanzato di targeting e letalità automatizzato. Il Dipartimento di Difesa intende dunque sfruttare l’intelligenza artificiale e il machine learning per sviluppare veicoli da combattimento terrestri autonomi capacità di targeting. Ciò consentirà al sistema d’arma di “acquisire, identificare e coinvolgere obiettivi almeno 3 volte più velocemente rispetto all’attuale processo manuale”, si legge nell’avviso.

IL GRIDO D’ALLARME DELLE ONGS

Sentito da Quartz, Stuart Russell si è detto profondamente preoccupato all’idea che i carri armati e altri veicoli da combattimento terrestri abbiano la capacità di sparare da soli.  Il professore fa parte di “A Campaign to stop killer robots“, una coalizione di organizzazioni non governative che dal 2012 lavorano per mettere al bando armi autonome e mantenere “un significativo controllo umano sull’uso della forza”. I membri sono convinti che permettere alle macchine di selezionare e attaccare obiettivi potrebbe portare il mondo a “una corsa agli armamenti robotizzata destabilizzante”.

IN CONTRASTO CON LA LEGGE ATTUALE DEGLI STATI UNITI

Oltre al rischio di una corsa agli armamenti robotizzata, il professor Russell fa notare che un sistema d’arma autonomo sarebbe in contrasto “con l’attuale divieto di piena autonomia letale” – una sezione della legge militare statunitense che impone un certo livello di interazione umana al momento di prendere la decisione di colpire l’obiettivo”. Al momento l’ufficio appaltatore del Dipartimento della Difesa che ha pubblicato la call non ha ancora risposto a una richiesta di ulteriori dettagli su Atlas.

LA PRECISAZIONE DEL DIRETTORE DEL TECHNOLOGY AND NATIONAL SECURITY PROGRAM

In realtà non dovrebbe esserci un conflitto con la normativa statunitense. In base all’annuncio pubblicato Atlas utilizzerà un algoritmo per rilevare e identificare gli obiettivi e saranno automatizzate “le parti del processo di controllo del fuoco”. Secondo Paul Scharre, direttore del Technology and National Security Program presso il Center for a New American Security (Cnas), ciò significa che sarà sempre una persona a prendere la decisione di sparare, come richiesto dalla legge. Atlas è pensato per “massimizzare la quantità di tempo per la risposta umana e consentire all’operatore umano di prendere una decisione”, ha dichiarato Scharre, “e una volta che l’umano ha preso una decisione, sparare accuratamente”. In questo modo si ridurrebbe la possibilità di vittime civili e altre conseguenze non intenzionali.

ROBOT KILLER, CHI A FAVORE E CHI CONTRO

Secondo i ricercatori del Cnas attualmente ci sono centinaia di sistemi di difesa missilistica autonomi e semi-autonomi in uso. Per Sharre Atlas sarebbe soltanto il primo utilizzo di tali sistemi in veicoli da combattimento terrestri. Quando si tratta di declinazione etica dell’utilizzo dell’intelligenza artificiale il dibattito si amplia e coinvolge numerosi attori. Come ricorda Quartz, più di 25 paesi hanno chiesto il divieto di armi autonome e lo scorso autunno il segretario generale delle Nazioni Unite António Guterres ha detto che “la prospettiva di macchine con la discrezione e il potere di sopravvento sulla vita umana è moralmente ripugnante”. Tuttavia, Stati Uniti, Corea del Sud, Russia, Israele e Australia sembrano titubanti su questa posizione così categorica e i contractor dell’industria della Difesa tra cui Boeing, Lockheed Martin, BAE Systems e Raytheon continuano a investire pesantemente nello sviluppo di armi senza equipaggio. La palla rimbalza dunque agli Stati che devono formulare un’intesa sui confini dell’integrazione dell’AI nei sistemi d’arma.

Back To Top