skip to Main Content

Cyber warfare, la nuova frontiera del conflitto fra Stati

Estratto del paper "Shadow warfare. Cyberdeterrenza, malware e machine learning" a cura di Fabio Vanorio

 

Gli stati tecnologicamente dominanti usano le loro capacità di cyber warfare come deterrente mediante politiche di “coercizione digitale”.

L’impiego di tattiche di hacking in qualunque competizione (militare, economica, o addirittura elettorale) ha segnato l’ultimo decennio e la tendenza si accrescerà nel XXI secolo. I problemi legati all’attribuzione e alla proporzionalità diventano rilevanti per Stati tecnologicamente dominanti quando compiono azioni cibernetiche clandestine, ad esempio, per rafforzare strategie politiche avviate nel mondo reale.

La questione diventa correlata ai costi interni ed internazionali delle loro azioni in termini di dissenso espresso in sedi multilaterali o di norme predisposte per perseguire danni collaterali a loro attribuibili.

Il potenziamento con l’Intelligenza Artificiale riduce i danni collaterali, migliora l’accuratezza e l’anonimato della cyber warfare, rende più complessa l’attribuzione, e con essa sia la giustificazione della ritorsione da parte dello Stato tecnologicamente più debole sia l’eventuale condanna dello Stato forte da parte della Comunità internazionale. In tal senso, si apre lo spazio per attori non-statuali (“proxy”) finanziati più o meno privatamente dagli Stati per mantenere una negazione plausibile e nello stesso tempo rimanere nella competizione.

L’analisi dei Big Data attraverso il Machine Learning in un ambiente di rete wireless 5G/6G è in grado di migliorare ulteriormente la capacità di prevedere le minacce e di ridurre gli incidenti causati dal fattore umano (soprattutto gli incidenti e i malfunzionamenti causati dai “false flag”). Questi progressi potrebbero però amplificare contemporaneamente i rischi di escalation. Il Machine Learning utilizzato come moltiplicatore di forza per la cyber-offesa (ad esempio, attraverso l’uso di “deepfakes” sui social media, o “digital jamming” contro gli sciami di droni) è significativamente più difficile da rilevare rispetto all’uso di strumenti APT (Advanced Persistent Threats). Anche in caso di cyber-attacchi, il Machine Learning può rendere impossibile il rilevamento.[1]

I sistemi di Machine Learning possono esacerbare la manipolazione del panorama informativo in cui vengono prese le decisioni, ad esempio, attraverso la contraffazione di e-mail, messaggi di segreteria telefonica o video, impersonificando utenti con i quali si interagisce abitualmente (l’Intelligenza Artificiale può replicare il tono, la lingua e lo stile di un utente al punto da non riuscire più a fare una distinzione – deep-fake). In ambiti sociali, questo può essere un fattore critico nella sua capacità di fomentare – via cyber – rivolte di massa. Contestualmente, il ragionamento può essere rovesciato mostrando il lato buono della cyber warfare alimentata. L’analisi georeferenziata degli accessi al social Parler intorno a Capitol Hill[2] in occasione dell’occupazione del Congresso statunitense e l’analoga analisi effettuata sulle posizioni delle basi militari americane[3] hanno evidenziato come tramite l’impiego di un “deep-fake sonda” sia possibile effettuare raccolta di intelligence diffondendo notizie false per far emergere il canale spia.

Il Machine Learning può essere anche impiegato, mediante Remote Access Trojans (RAT), per modificare i dati di addestramento utilizzati per l’apprendimento di sistemi intelligenti in uso ad un sistema. Una strategia di medio periodo può prevedere una modifica silenziosa, prolungata nel tempo, dei dati impiegati nell’addestramento così da poter attaccare anche dopo l’installazione delle difese di Machine Learning. Analogamente, per sistemi ostili di Machine Learning è possibile infiltrarsi all’interno di sistemi apprendendo metodi di comunicazione, porte e protocolli più comunemente usati all’interno di reti aziendali o governative.

L’Intelligenza Artificiale è in continua evoluzione e sta imparando a conoscere il modo in cui noi ci difendiamo. Ad ogni risposta, gli attacchi successivi aumenteranno di volume e di sofisticazione.

A meno che la nostra Intelligenza Artificiale non sia migliore di quella avversaria, e a meno che non si crei la maggiore anti-fragilità possibile all’interno del perimetro di difesa cibernetica nazionale e sovranazionale, questi ultimi troveranno sempre il modo di entrare mettendo a rischio le infrastrutture strategiche, i servizi essenziali (energia, trasporti, ospedali) e la nostra intera società.

+

[1] Nella tutela da malware, l’intelligenza artificiale può fornire ottimi risultati se unita a sistemi di cloud computing (nell’analisi degli indirizzi IP impiegati) e a tecnologie di comunicazione 5G (Guideng 2019.)
[2] Dell Cameron and Dhruv Mehrotra, Parler Users Breached Deep Inside U.S. Capitol Building, GPS Data Shows, January 12, 2021, gizmodo.com/parler-users-breached-deep-inside-u-s-capitol-building-1846042905?rev=1610480731991.
[3] Dell Cameron and Dhruv Mehrotra, Leaked Parler Data Points to Users at Police Stations, U.S. Military Bases, January 15, 2021, gizmodo.com/leaked-parler-data-points-to-users-at-police-stations-1846059897.

Back To Top