Skip to content

Hamas

La guerra tra Israele e Hamas si combatte anche a colpi di intelligenza artificiale

L'operazione Iron Swords di Israele contro Hamas fa ricorso a sistemi di intelligenza artificiale per identificare in tempo reale i miliziani di Hamas. L'analisi di Francesco D’Arrigo, direttore dell'Istituto Italiano di Studi Strategici Niccolò Machiavelli

 

L’anno scorso, a seguito dell’attacco di Hamas del 7 ottobre, avevo scritto che l’attacco a sorpresa di Hamas contro Israele non era da addebitare soltanto ad un enorme fallimento dell’intelligence ma ad un fallimento strategico dell’intero sistema politico e di difesa di Israele.

L’Israel Defence Force (IDF) è rimasto inerte di fronte all’invasione dei terroristi di Hamas attraverso il confine meridionale ed al lancio di migliaia di razzi, nonostante il capillare dispiegamento delle più avanzate tecnologie di sorveglianza israeliane. Le capacità dei sensori dispiegati lungo la “barriera intelligente” tra Israele e Gaza (recinzioni, sensoristica, torrette automatiche per mitragliatrici, droni di sorveglianza, ecc.) hanno mostrato al mondo una forza militare professionale che ha interamente affidato la propria percezione delle possibili minacce e capacità di difesa quasi esclusivamente alla tecnologia.

L’Intelligenza Artificiale sta trasformando la natura umana della guerra

I Servizi segreti israeliani, fino a quel giorno considerati tra i più efficienti e tecnologicamente avanzati al mondo, con capacità di HUMINT, SIGINT e di intercettazioni cibernetiche impareggiabili che coprono la Cisgiordania e Gaza, sono rimasti ciechi ed incapaci di reagire praticamente durante tutto l’attacco.

A quanto pare nemmeno quel fallimento ha provocato un cambio di strategia nell’approccio di IDF all’uso di “sistemi intelligenti”. I dettagli che stanno emergendo in questi giorni sull’uso di sistemi governati dall’intelligenza artificiale da parte delle Forze di Difesa Israeliane, come “Habsora” (Gospel), “Where’s Daddy?” e “Lavender” stanno esasperando gli animi degli alleati di Israele, facendo definitivamente perdere la pazienza al più importante alleato di Israele – gli Usa – e soprattutto facendo vincere la guerra dell’informazione ad Hamas.

In un contesto operativo di guerriglia urbana che vede i terroristi di Hamas mimetizzarsi tra la popolazione civile, un processo decisionale affidato a sistemi d’arma tecnologicamente “intelligenti” che individua autonomamente gli obiettivi da bombardare nella Striscia di Gaza, senza porre vincoli alle potenziali vittime collaterali, sta causando un numero insostenibile di vittime civili ed il fallimento del governo del premier Benjamin Netanyahu sia dal punto di vista strategico, che etico.

Il sistema Lavender è stato progettato per individuare tutti i sospetti appartenenti alle milizie di Hamas e della Jihad islamica palestinese, schedando circa 37.000 palestinesi come potenziali obiettivi da eliminare.

Come vengono generati gli obiettivi?

Nell’ambito dell’operazione “Iron Swords”, l’esercito ha deciso di individuare tutti gli operatori dell’ala militare di Hamas come obiettivi umani, indipendentemente dal loro grado o dalla loro importanza militare. Il software Lavender analizza le informazioni raccolte sulla maggior parte degli oltre due milioni di residenti della Striscia di Gaza attraverso un sistema di sorveglianza di massa. Una raccolta di Big Data relativa a dati biometrici e riconoscimento facciale, informazioni anagrafiche, foto, schede cellulari, connessioni ai social media, informazioni su spostamenti, connessioni Internet, ecc. Poi la macchina viene alimentata con dati sugli operatori di Hamas esistenti, impara a notare le loro caratteristiche e valuta gli altri palestinesi in base a quanto sono simili ai militanti, valuta e classifica la probabilità che ogni persona in particolare collabori con l’ala militare di Hamas o comunque ne sostenga i fini.

Gli obiettivi vengono collegati alle abitazioni delle famiglie e dei parenti

Come sappiamo, Hamas colloca i suoi operativi e i suoi mezzi militari nel cuore delle abitazioni della Striscia di Gaza, usa sistematicamente la popolazione civile come scudi umani e conduce i combattimenti dall’interno di strutture civili, compresi siti sensibili come ospedali, moschee, scuole e recentemente si è scoperto anche siti logistici e personale delle Nazioni Unite. L’IDF è vincolato e agisce secondo il diritto internazionale, dirigendo i suoi attacchi solo verso obiettivi militari e operatori militari, ma i militanti di Hamas si nascondono negli edifici civili e nei sotterranei scavati nel tempo, dove occultano i loro arsenali. Per spostarsi utilizzano innumerevoli mezzi civili e perfino le ambulanze. Pertanto, i vertici dell’IDF sostengono che molti attacchi israeliani uccidono civili a causa di queste tattiche di Hamas.

Per identificare in tempo reale i militanti di Hamas all’interno di questi edifici sono stati sviluppati diversi software automatici “intelligenti”. Questi programmi tracciano migliaia di individui simultaneamente, li identificano quando sono in casa e inviano un allarme automatico al sistema di puntamento, che poi contrassegna la casa per il bombardamento. Uno di questi software di localizzazione si chiama “Where is Daddy?” (Dov’è papà?). Nelle prime due settimane di guerra, “diverse migliaia” di persone sono state inizialmente inserite quali obiettivi da colpire da tali programmi di localizzazione, tra i quali ovviamente ci sono tutti i membri dell’unità d’élite delle forze speciali di Hamas, la Nukhba, tutti gli operatori anticarro e di lancio missili di Hamas e chiunque fosse entrato in Israele il 7 ottobre.

Scelta del sistema d’arma per colpire gli obiettivi e valutazione dei danni collaterali

Una volta che il software di localizzazione ha individuato l’obiettivo all’interno di un’abitazione, la fase successiva è la scelta del sistema d’arma con cui bombardarlo ed il calcolo del numero di civili che potrebbero rimanere coinvolti durante l’attacco. Durante le prime settimane di guerra, il numero di civili massimo accettabile come danni collaterali, come li chiamano i militari, era stato fissato fino a 15, applicati in maniera generalizzata a tutti i sospetti militanti di Hamas, indipendentemente dal loro grado, dall’importanza militare e dall’età. Tuttavia, dagli attacchi aerei contro i comandanti di alto livello di Hamas, ancora in corso, e dalla tipologia di bombardamenti utilizzati per eliminare il comandante del Battaglione Shuja’iya, è evidente che l’esercito sta autorizzando di accettare “danni collaterali” di centinaia di civili morti per colpire obiettivi di alto profilo di Hamas. Una politica per la quale non ci sono precedenti storici in Israele, o anche nelle recenti operazioni militari occidentali, e che stanno provocando le durissime reazioni della Casa Bianca.

L’autorizzazione ad adottare automaticamente le liste di obiettivi di Lavender, che in precedenza erano state utilizzate solo come strumento ausiliario, è stata concessa circa due settimane dopo l’inizio dell’operazione “Iron Swords” dall’Unità 8200 comandata dal Generale Yassi Sariel, la cui identità è stata rivelata dal Guardian associandolo al libro che ha pubblicato “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World”. Autorizzazione rilasciata nonostante il personale dell’intelligence avesse rilevato che gli obiettivi selezionati dal sistema di intelligenza artificiale Lavender, avevano raggiunto un livello di precisione del 90% nell’identificare l’affiliazione di un individuo ad Hamas. In altre parole, si sapeva in anticipo che il 10% degli obiettivi umani destinati ad essere eliminati potevano non essere membri dell’ala militare di Hamas.

Problemi di approssimazione analoghi si sono riscontrati anche nella capacità di questi software di valutare i dispositivi elettronici e gli smartphone utilizzati da un individuo designato come membro di Hamas. In guerra, i terroristi cambiano continuamente telefono, e magari lo affidano ad un amico o un parente, oppure lo abbandonano. In questo scenario di caos totale non c’è modo di affidarsi al 100% ad un sistema automatico che determina quale numero di telefono appartiene a chi per selezionare un bersaglio. Inoltre, se si considera che la maggior parte delle case nella Striscia di Gaza sono già distrutte o danneggiate, e quasi tutta la popolazione sfollata, anche la scelta dell’IDF di affidarsi ai programmi automatici di localizzazione delle case dove si possono nascondere i terroristi risulta essere un chiaro errore strategico.

Detto questo, la distinzione tra l’intelligenza artificiale in sé e l’etica nell’uso della tecnologia in un conflitto urbano come quello tra Israele-Hamas e Gaza dovrebbe essere ben presente, così come le possibilità di errori.

Il problema etico risiede nell’uso di questi sistemi per acquisire ed eliminare rapidamente individui bombardando aree densamente popolate, con la piena consapevolezza che, con una ridotta capacità di verifica umana, l’accuratezza di identificazione diminuisce mentre aumentano esponenzialmente i “danni collaterali”.

Le risorse umane devono essere eticamente coinvolte nel crescente rapporto con l’evoluzione dell’Intelligenza Artificiale e del Machine Learning che sviluppa e testa algoritmi per addestrare sistemi di attacco.

Soprattutto in caso di utilizzo di tecnologie intelligenti, anche il sistema più innovativo e dirompente può rivelarsi inefficace a causa di bias comportamentali che possono portare a fallimenti decisionali devastanti.

Come evidenziato, insieme a Fabio Vanorio, nel paper “Intelligence hyper-loop — come la considerazione del concetto “human-in-the-loop” è vitale per la rivoluzione digitale dello spionaggio”, con l’introduzione dell’Intelligenza Artificiale nel processo decisionale politico e militare, la ricerca di sinergie tra Uomo e Macchina genera molteplici sfide: come possono i prodotti informativi ottenuti con l’introduzione dell’Intelligenza Artificiale migliorare le procedure decisionali umane? In che misura tali prodotti dovrebbero essere ritenuti affidabili – per riflettere un’appropriata valutazione del contesto situazionale e strategico – nell’informare le decisioni umane? In che misura il processo decisionale assistito dall’Intelligenza Artificiale dovrebbe sostituire o integrare il processo decisionale umano?

La complessità raggiunta dai sistemi militari potenziati dall’Intelligenza Artificiale determina la necessità di ridefinire la portata di un processo decisionale completamente affidato alle macchine. Le tecnologie basate sull’Intelligenza Artificiale creano nuove opportunità ma anche enormi problematiche operative ed etiche, sia all’interno delle burocrazie militari, ma anche tra le imprese e soprattutto tra gli istituti di Ricerca in materia di sicurezza, con il processo [dati → informazioni → Intelligenza Artificiale → decisioni] come nuovo paradigma tecnologico.

Come stiamo vedendo nel conflitto a Gaza tra Israele e Hamas, anche in un contesto operativo tecnologicamente “intelligente” come quello adottato dall’IDF, carenti strutture organizzative nel processo decisionale possono portare a consegnare a dei sistemi non umani la decisione di sganciare ordigni (nucleari?) in centri abitati.

Uno scenario inimmaginabile nemmeno nella distopica Los Angeles di Blade Runner (ambientata nel 2019), dove i replicanti – androidi con sembianze umane – venivano utilizzati solo come forza lavoro nelle colonie extra-terrestri, non certo per affidargli responsabilità strategiche che devono rimanere una prerogativa esclusiva del processo decisionale umano.

Torna su