Skip to content

microsoft anduril

Ecco come l’intelligenza artificiale (e non solo) sta ridisegnando la guerra

Tra droni, visori, e robot, la violenza è sempre più simile a un videogioco, più facile e più economica. Così si diffonde più in fretta. L’approfondimento di Laura Turini, estratto dalla newsletter Appunti di Stefano Feltri

La rivoluzione in atto nel panorama militare globale ha assunto dimensioni che, fino a poco tempo fa, potevano sembrare fantascienza, con una corsa ad armamenti letali autonomi, come i “Gogol-M” ucraini o gli V2U russi, in cui l’intervento umano è remoto.

Intelligenza artificiale, droni e armi autonome hanno trasformato i campi di battaglia tradizionali e sono diventati protagonisti assoluti nei conflitti più accesi.

L’Ucraina è diventata leader mondiale nel settore dei droni militari, con oltre quattro milioni di pezzi prodotti nel 2025, e se nel 2018 i droni avevano ucciso circa mille persone, oggi sono responsabili di quasi l’80 per cento delle vittime nella guerra in Ucraina. L’uso intensivo degli UAV, Unmanned Aerial Vehicles, non avviene solo a fini di ricognizione, ma anche nell’ambito di veri attacchi “kamikaze” a basso costo.

Qualche settimana fa è stata diffusa la notizia che per la prima volta un gruppo di soldati russi si è arreso di fronte all’avanzata di un gruppo di non-umani, ovvero robot dalla forma di piccoli cingolati che uccidevano tutti quelli che si trovavano di fronte.

La guerra automatizzata è un business che è diventato attraente non solo per l’industria bellica tradizionale, ma anche per imprese storicamente impegnate nello sviluppo di tecnologie che niente avevano a che fare con la guerra. Sui social circola la foto sorridente di due ragazzi, vestiti in modo informale, che si presentavano felici e raggianti per annunciare la loro nuova avventura: i due erano Mark Zuckerberg e Palmer Luckey, ex nemici, tornati amici, che si mostravano pronti a giocare a fare la guerra. Luckey, nato nel mondo dei visori e della realtà virtuale, aveva lasciato Meta in modo non proprio pacifico ma adesso sia lui che Zuckerberg sembrano avere messo una pietra sopra il passato, perché gli affari sono affari e nessuno dei due intende restare fuori dal business del momento. Il fine, per loro, è il bene dell’America e il patriottismo, qualsiasi cosa possa significare questa orrenda parola pronunciata su un pianeta che è un soffio di vita nell’universo, diventa anche per loro una sorta di indulgenza plenaria che giustifica ogni nefandezza. La Anduril Industries di Palmer Luckey è specializzata in visori e svilupperà, insieme a Meta una linea di dispositivi indossabili, come caschi e occhiali, in grado di offrire una visione in realtà aumentata da utilizzare per fini militari. Meta sembra avere contatti importanti con referenti del Pentagono e ha creato al suo interno un reparto specializzato nello sviluppo di modelli di intelligenza artificiale per scopi bellici.Il fine dell’intesa è quello di dotare l’esercito di tecnologie all’avanguardia che consentano ai soldati americani «di proteggere meglio i nostri interessi dentro e fuori gli Stati Uniti» come ha dichiarato Zuckerberg.Luckey è un forte sostenitore di Donald Trump e crede fermamente nell’importanza di sviluppare nuovi strumenti di difesa tecnologici, per cui la sintonia è massima.

L’uso dell’intelligenza artificiale in combinazione ad altri strumenti sofisticati rischia però di essere molto più impattante di quanto si possa pensare e la situazione è preoccupante.

In un articolo pubblicato sul Financial Times, e ripreso da Internazionale, dal titolo La guerra è contagiosa, Simon Kuper ci ricorda che nel 2024 ci sono stati sessantuno conflitti tra Stati e che è il numero più alto dal 1946.

Il giornalista si interroga sui motivi di questo contagio bellico e individua un serio problema di perdita di equilibrio in ambito politico, ma tra i diversi fattori che i vari studi pongono alla base del diffondersi delle guerre c’è proprio la tecnologia.

Le guerre sono sempre più simili a un videogioco, più facili e più economiche e questo rappresenta un pericolo.

Secondo uno studio del CMIST, Carnegie Mellon Institute for Strategy & Technology, centro di ricerca interdisciplinare affiliato alla Carnegie Mellon University di Pittsburgh, le armi tecnologiche sono molto più accessibili di quelle tradizionali, al punto che un ingegnere di un paese sperduto potrebbe riuscire a costruire droni militari, usando stampanti 3D, recuperando componenti da droni civili e acquisendo informazioni da chat o altri canali Internet senza troppe difficoltà. Inoltre le guerre si combattono sempre di più dalle scrivanie, senza sporcarsi le mani e senza dovere mandare a morire i figli dei paesi più ricchi, che sembra siano gli unici figli che contano, per cui viene avvertito meno l’impatto umano.

Queste “facilitazioni” rappresentano uno dei motivi per cui le guerre prolificano in modo del tutto imprevedibile e incontrollato.

Gli Stati non rispettano più il diritto internazionale, che alcuni studiosi ritengono stia attraversando un periodo di profonda crisi, i ribelli non lo hanno mai fatto, ma ciò che sembra più grave è che non esiste alcuna regolamentazione che riguardi la produzione e l’uso delle armi basate sulle nuove tecnologie informatiche. Le intelligenze artificiali militari imporrebbero, invece, un ripensamento del diritto internazionale umanitario, in quanto l’assenza dell’uomo nei sistemi classificati come “human-out-of-the-loop” solleva interrogativi nuovi rispetto al passato.

William Renn Gade, vice consigliere legale del dipartimento della Difesa USA, evidenzia come gli Stati si trovino smarriti nel cercare una definizione univoca dello “spazio extra-atmosferico”, in un contesto dominato da vecchi trattati che non hanno ancora meccanismi di governance condivisi.

La stessa definizione di “combattente e non combattente” entra in crisi nel momento in cui ad agire non sono esseri umani, ma robot, senza considerare che molte operazioni si svolgono in cloud.

L’IT Army of Ukraine o le milizie cibernetiche russe, rappresentano un paradigma decentralizzato, sempre più difficile da normare, mentre satelliti non protetti possono interrompere comunicazioni vitali o provocare carestie, diventando obiettivi strategici.

In un intervento al Lawfully Speaking: A Forum on Law & Ethics organizzato dal CMIST, William Renn Gade ha affermato che la guerra «ha superato acciaio, polvere da sparo, moschetti rigati e i campi di battaglia tradizionali del passato, approdando in un mondo fatto di intelligenza artificiale e spazio» e che il diritto deve adeguarsi.

Ha aggiunto che è importare riuscire a garantire un uso responsabile dell’intelligenza artificiale che può generare risposte sbagliate con conseguenze gravissime, oltre che mettere a rischio la privacy e i diritti fondamentali. I principi attuali male si adeguano a questi nuovi fenomeni.

Però quando Audrey Kurth Cronin, direttrice del CMIST, gli ha chiesto come potrà essere affrontato il problema della responsabilità in caso di errori causati da droni o da armi automatizzate, Gade ha risposto che non c’è una soluzione univoca al momento e che la discussione giuridica è in atto. «Siamo predittori perfettamente imperfetti», ha dichiarato.

Intanto, mentre il diritto sta riflettendo su se stesso, la tecnologia continua a mietere vittime innocenti e il mondo si sta armando, con grande soddisfazione di tutti quelli che stanno investendo in questo mercato di sangue.

Speriamo che le regole non arrivino troppo tardi, anche se è già troppo tardi.

 

(Estratto da Appunti)

Torna su