Sempre più autonoma e indipendente l’intelligenza artificiale (IA) rischia di rivelarsi una vera minaccia per i mercati. Oltre, infatti, alle speculazioni derivanti da deepfake, come il video dell’esplosione del Pentagono lo scorso maggio, l’IA potrebbe produrre terremoti finanziari anche senza una mente umana che li provoca.
A sostenerlo sono diversi esperti, tra cui tre scienziati che hanno analizzato il problema della market manipulation dovuta all’IA nel loro paper Machine Learning, Market Manipulation and Collusion on Capital Markets: Why the “Black Box” Matters (Apprendimento automatico, manipolazione del mercato e collusione sui mercati dei capitali: Perché la “scatola nera” è importante).
Ecco perché, secondo loro, è necessario che il diritto – a oggi non in grado di gestire un simile rischio – sia all’altezza della sfida.
LO STUDIO
Il paper, scritto dagli scienziati Wolf Georg Ringe, Alessio Azzutti e Siegfried Stiehl, osserva l’impatto e le implicazioni di algoritmi sempre più autonomi e black box, ovvero di cui si conosce solo la parte esterna, nell’ambito della ramificazione del trading algoritmico e di cosa significhi per l’integrità dei mercati dei capitali.
Sebbene l’intelligenza artificiale (IA) e i metodi di apprendimento automatico (ML), di cui ne fanno parte, hanno portato anche un aumento dell’efficienza, per esempio nel combattere gli illeciti, non si possono non osservare derive come la manipolazione dei listini e, dunque, dei mercati.
L’IA AUTONOMA NEL TRADING FINANZIARIO
L’allarme lanciato dagli esperti riguarda la possibilità che questo avvenga senza nemmeno l’intervento dell’uomo. Infatti, come si legge nello studio, “nel settore del trading finanziario, l’apprendimento automatico può aumentare le capacità umane nella previsione dei prezzi, nell’ottimizzazione dinamica del portafoglio e in altri compiti decisionali in campo finanziario”.
“Tuttavia – prosegue -, grazie ai costanti progressi della tecnologia ML, la prospettiva di agenti sempre più capaci e autonomi di delegare compiti operativi e persino il processo decisionale è ormai al di là della semplice immaginazione, aprendo così la possibilità di approssimare agenti di trading (veramente) autonomi in tempi brevi”.
Per tale motivo, gli autori sostengono che questi trader algoritmici autonomi “possono comportare rischi significativi per l’integrità del mercato, indipendentemente dai loro esperti umani, grazie alle capacità di autoapprendimento offerte da metodi di ML all’avanguardia e innovativi”.
L’APPLICAZIONE DELL’IA NEL TRADING E I SUOI RISCHI
Per dimostrarlo, gli esperti hanno utilizzato il settore del proprietary trading come caso di studio e si sono concentrati in particolare su due rischi emergenti di abuso di mercato da parte di algoritmi autonomi: la manipolazione del mercato e la collusione “tacita”.
Tenendo conto della loro probabilità di insorgere nei mercati globali dei capitali e valutando i danni sociali correlati come forme di fallimento del mercato, la conclusione è che i quadri normativi e i meccanismi di applicazione esistenti, oltre alle attuali norme giuridiche sulla governance della negoziazione algoritmica, non sono all’altezza della velocità con cui l’IA sta diventando autonoma.
PERCHÉ IL DIRITTO DEVE EVOLVERSI
Gli autori hanno dimostrato come “la natura di ‘black box’ di specifiche strategie di trading algoritmico alimentate da ML possa eludere le leggi esistenti sugli abusi di mercato, che si basano su concetti e test di responsabilità tradizionali (come ‘intento’ e ‘causalità’)”.
In un mercato virtuale, l’intelligenza artificiale è infatti riuscita a realizzare, in modo del tutto autonomo, un’intesa tacita con un’altra attività d’investimento, riuscendo a guadagnare con il coordinamento delle strategie.
Ecco perché, in un altro studio, Azzutti afferma che l’IA nel trading “è attualmente lasciata operare in un ambiente di mercato (quasi) privo di leggi, con il rischio ultimo di mettere a repentaglio l’integrità e la stabilità dei mercati dei capitali dell’Ue”.
La cosiddetta “teoria della deterrenza”, secondo l’esperto, potrebbe permettere di pensare a soluzioni innovative per risolvere le numerose carenze del quadro giuridico europeo nella lotta contro la manipolazione del mercato guidata dall’IA.
Per il Financial Times, invece, l’unico modo realistico per contrastare il rischio di manipolazione del mercato a breve termine “è che i finanzieri (e i giornalisti) adottino una maggiore due diligence e che gli investigatori governativi diano la caccia ai criminali informatici”.