skip to Main Content

Giustizia Fiscale

Ecco come e dove gli algoritmi di machine learning battono gli uomini

L'analisi di Giuseppe Francesco Italiano, docente di Computer Science alla Luiss 

L’intelligenza artificiale è oramai ovunque. Ne sentiamo parlare in continuazione. Questa mattina ero in macchina, e alla radio ho sentito una pubblicità che parlava di un’automobile con l’intelligenza artificiale. Nel frattempo, gli Stati Uniti e la Cina, per cui in questo momento la tecnologia è una forte chiave di attrito commerciale, hanno iniziato una corsa a due per il predominio in questo settore. L’anno scorso la Cina ha adottato un Piano di sviluppo dell’intelligenza artificiale, con investimenti dell’ordine dei miliardi di dollari e con l’obiettivo dichiarato di raggiungere la supremazia nell’intelligenza artificiale entro il 2030. Altri paesi, come Francia, Canada e Corea del Sud, hanno elaborato una loro strategia nazionale per l’intelligenza artificiale. Dieci giorni fa, l’11 febbraio, anche il Presidente degli Stati Uniti ha firmato un executive order per creare un programma denominato “The American AI initiative”. Questo è l’impatto dell’intelligenza artificiale e questo è lo scenario in cui ci stiamo muovendo oggi.

Ma cosa è esattamente l’intelligenza artificiale? In maniera forse un po’ troppo semplicistica, potremmo dire che la sfida dell’intelligenza artificiale è quella di rendere i computer, le macchine, capaci di eseguire compiti tipici dell’intelligenza umana. Per gli addetti ai lavori, i computer scientist come me, fino a qualche tempo fa il termine intelligenza artificiale indicava il futuro: l’intelligenza artificiale era tutto quello che avremmo voluto fare ma che non eravamo ancora in grado di fare. Poi sono arrivati alcuni cambiamenti epocali. Nel 2011 Watson, un sistema costruito da IBM, ha vinto una puntata di Jeopardy, un famoso e complicato gioco a quiz televisivo americano. Nel 2015 AlphaGo, un sistema costruito da Google, ha battuto un campione mondiale di Go, un antico gioco molto complicato. Pochissimi giorni fa, sempre l’11 febbraio, a San Francisco si è svolta una sfida di retorica tra un campione del mondo di dibattiti, Harish Natarajan, e Debater, una macchina costruita da IBM. Anche se alla fine la giuria ha assegnato la vittoria all’uomo, se guardiamo il video di questo dibattito ci accorgiamo che le capacità dialettiche della macchina Debater sono veramente impressionanti. Forse abbiamo sentito parlare del Test proposto da Turing 70 anni fa, di cui si parla anche nel famoso film “The Imitation Game”. Semplificando molto, un computer è in grado di passare il test di Turing se un osservatore esterno, che ascolta soltanto la conversazione, non è in grado di distinguerlo da un essere umano. Ecco, dopo aver ascoltato il dibattito tra Natarajan e Debater, si ha come la sensazione che le macchine si stiano avvicinando sempre di più a superare il Test di Turing.

All’improvviso, grazie anche a molti altri incredibili sviluppi, l’intelligenza artificiale non è stata più il futuro, ma è diventata il presente. Alla base di tutti questi progressi, ci sono stati sostanzialmente degli algoritmi, gli algoritmi di machine learning, che dal mondo della ricerca sono entrati prepotentemente in molte applicazioni, in molte aziende, nei nostri telefoni e persino nelle nostre vite quotidiane, grazie anche a computer sempre più potenti e in grado di elaborare velocemente grandissime quantità di dati. A differenza degli algoritmi tradizionali, che possono essere spiegati e interpretati, gli algoritmi di machine learning costruiscono un modello del problema che vogliono risolvere. Un modello che non è però spesso facilmente interpretabile. Per provare a spiegare questo, col rischio di fare un esempio molto approssimativo, e forse anche un po’ esagerato, potremmo pensare al modello prodotto da un algoritmo di machine learning come a un cervello umano. Non possiamo dissezionare il cervello per capire cosa è successo, perché è stata presa una certa decisione. Possiamo provare a osservare dall’esterno, a fare delle domande, interrogarlo e analizzare le sue risposte. Ma questo è un processo lungo, non sempre conduce a conclusioni esatte, e non sempre fa capire perché è stata presa una certa decisione. In questo caso, il meccanismo con cui è stata presa una decisione è poco chiaro, poco trasparente e più difficilmente spiegabile. Per questo gli algoritmi di machine learning sono come una scatola chiusa, una black box, che non può essere aperta facilmente. Nonostante questi loro limiti, negli ultimi anni hanno avuto un impatto incredibile in varie applicazioni, e hanno risolto in modo nuovo molti problemi difficili, che prima non sapevamo affatto risolvere. Ma hanno anche creato problemi completamente nuovi, che prima non sapevamo di avere, e anche loro di non facile risoluzione.

Come è avvenuto, ad esempio, nell’economia e nella finanza. Secondo stime recenti, in questo settore le fintech companies stanno conquistando velocemente quote molto importanti del mercato totale. Abbiamo già moltissimi strumenti basati interamente su machine learning e che non richiedono alcun intervento umano, come ad esempio i robo-advisor, che sono dei consulenti finanziari digitali, abbiamo piattaforme digitali di valutazione dei rischi (risk assessment), abbiamo strumenti per la gestione del portafoglio di investimenti, per stimare l’affidabilità creditizia (credit score) delle società e delle persone, per la rilevazione di frodi, abbiamo anche piattaforme di algorithmic trading che analizzano velocemente enormi quantità di dati ed effettuano in maniera automatica acquisti e vendite di titoli e azioni. Questo sviluppo rapido, oltre ad aprire nuovi mercati e nuove opportunità, ha anche sollevato qualche preoccupazione. Innanzitutto, gli algoritmi di machine learning, per loro natura, costruiscono i loro modelli basandosi su grandi quantità di dati, che sono ovviamente dati del passato, dati storici. Negli Stati Uniti, questo sta già rafforzando discriminazioni e pregiudizi storici, ad esempio nel concedere mutui o prestiti, o nell’accesso a determinati servizi. E il fatto che abbiamo bisogno di una grandissima quantità di dati genera ovviamente anche problemi complessi relativi alla privacy e alla proprietà di questi dati. Un altro punto molto importante è relativo agli aspetti etici degli algoritmi. Man mano che algoritmi assumono responsabilità crescenti, come ad esempio eseguire transazioni finanziarie, influenzare decisioni importanti, oppure guidare veicoli autonomi, sembra importante poter spiegare agli utenti perché è stata presa una certa decisione, capire come poter assicurare comportamenti etici nell’interesse degli utenti. Chi è responsabile delle decisioni prese da un algoritmo? La risposta a questa domanda non è affatto banale. Proprio perché se è un algoritmo di machine learning, non è neanche chiaro perché abbia preso quella decisione. Tutti questi problemi, come discriminazioni, privacy, responsabilità degli algoritmi, sono nuovi e molto complicati. Problemi che non sono soltanto tecnologici, che non sono soltanto economici, che non sono soltanto tipici delle discipline sociali, e che quindi non possono essere affrontati con approcci tradizionali di queste discipline. Richiedono sempre più una stretta collaborazione e contaminazione tra esperti provenienti da discipline completamente diverse, che devono confrontarsi e lavorare insieme, con molto impegno e apertura mentale.

Un’altra area molto importante, e nello stesso tempo anche molto delicata, è il diritto. Anche qui, abbiamo i primi algoritmi, i primi modelli di machine learning che sono in grado di fare cose sorprendenti, come ad esempio esaminare, revisionare documenti e contratti legali con un’accuratezza simile a quella dei professionisti, degli avvocati. Pochi mesi fa LawGeex, una piccola società con sedi a New York e Tel Aviv, che sviluppa sistemi basati su machine learning per contratti legali, ha messo a confronto un suo algoritmo con 20 avvocati nell’analisi di accordi di non divulgazione (non disclosure agreement). Nell’esperimento effettuato, l’algoritmo di machine learning, costruito facendo training su decine di migliaia di accordi di non divulgazione, ha avuto un’accuratezza confrontabile a quella dei migliori avvocati, e ovviamente ha impiegato molto meno tempo (ordine di secondi rispetto alle ore richieste in media dagli avvocati). Anche per questo tipo di applicazioni, abbiamo problemi molto simili a quelli visti per il settore finanziario. Problemi di discriminazioni e di pregiudizi storici, soprattutto quando ci inoltriamo nell’ambito del diritto penale, come si sta già cominciando a fare in qualche paese. Come facciamo a fidarci delle conclusioni raggiunte da una scatola chiusa, da un algoritmo non trasparente, non interpretabile da un essere umano? Ancora una volta, chi è responsabile delle decisioni prese da un algoritmo? Anche questi problemi non possono essere risolti soltanto da giuristi o soltanto da informatici. C’è un urgente bisogno di lavorare insieme, e alla pari, su questi temi. Di imparare, ognuno dagli altri.

L’ultimo caso di cui vorrei parlare, sempre indicativo dei problemi risolti ma anche dei nuovi problemi che possono essere creati da un utilizzo non sempre consapevole degli algoritmi, è un esempio concreto che si è verificato recentemente a Boston. Riguarda il servizio degli school bus, i bus navetta utilizzati per accompagnare gli studenti nelle scuole pubbliche. A Boston, vengono spesi ogni anno oltre 120 milioni di dollari per fornire questo servizio a più di 25.000 studenti di 200 scuole. Con questi numeri, organizzare bene il servizio è un problema complicatissimo. Nel 2017 è stata avviata una collaborazione con Dimitris Bertsekas, professore della Sloan School of Management di MIT e una delle superstar di ricerca operativa, con l’obiettivo di ottimizzare il servizio, per garantire un risparmio di circa 5 milioni di dollari l’anno. Sembrava un successo annunciato, avrebbe sicuramente migliorato l’efficienza di un servizio pubblico, e consentito di investire le risorse risparmiate in progetti per il miglioramento della qualità dell’istruzione. Ma purtroppo non è andata esattamente così. Appena è stato annunciato il nuovo orario degli school bus, alcune famiglie lo hanno trovato inaccettabile e hanno protestato, marciando addirittura verso la City Hall. Questo ha costretto a fare subito marcia indietro, ripristinando l’orario precedente, e sprecando così tutto il lavoro fatto, tutte le risorse finanziarie e il tempo investito nel progetto. Questo è successo a Boston, una degli hub tecnologici del paese più avanzato al mondo. E’ stato un fallimento degli algoritmi? Non direi. Gli algoritmi hanno probabilmente ottenuto la soluzione migliore, il miglior compromesso possibile tra le varie esigenze, tra i costi del servizio per la collettività e gli interessi e i vincoli dei singoli cittadini, cercando di non penalizzare soprattutto le famiglie più deboli, per cui i cambiamenti negli orari dei propri figli avrebbero generato maggiori criticità. Chi ha protestato, tra l’altro una minoranza, lo ha fatto perché ha visto che il nuovo orario avrebbe peggiorato la propria situazione particolare, senza considerare che forse la situazione complessiva, il benessere sociale, sarebbe migliorato, e di molto. Chi ha protestato ha criticato l’algoritmo, che è stato visto come una scatola chiusa, che in modo non trasparente prendeva decisioni sulla vita personale dei cittadini. Ciò che molto probabilmente non ha funzionato è stato il modo in cui i policy maker hanno pensato di utilizzare un algoritmo per cambiare policy che avevano effetti immediati sulla vita delle persone. Decisioni di questo tipo non possono essere delegate interamente a un algoritmo. Man mano che gli algoritmi avranno la possibilità di influenzare decisioni di questo tipo, diventerà sempre più cruciale la collaborazione concreta tra chi li progetta e gli esperti di policy, che sanno come pesare i vari trade-off alla base del benessere sociale, e che conoscono bene anche le caratteristiche fondamentali delle moderne democrazie.

Il consiglio (sempre attuale) di Alan Turing

Cosa ci aspetta e cosa possiamo fare nell’immediato futuro? Nel lontano 1950, Alan Turing ha concluso il suo famoso articolo “Computing machinery and intelligence”, in cui tra l’altro ha definito The Imitation Game, il famoso Test di Turing, con la frase “Possiamo vedere soltanto una piccola distanza davanti a noi, ma possiamo vedere che ci sono moltissime cose da fare”. A 70 anni di distanza è cambiato quasi tutto. Le tecnologie hanno completamente rivoluzionato la nostra società, il nostro modo di lavorare e il nostro modo di vivere. Ma l’affermazione di Turing sembra ancora molto attuale. Anche oggi riusciamo a vedere soltanto cosa succederà a breve, due o tre anni. Ma anche basandoci su questo limitatissimo orizzonte temporale, possiamo vedere che c’è ancora moltissimo lavoro da fare. Si sta creando rapidamente un nuovo rapporto tra noi e le macchine, con una diversa distribuzione dei ruoli, e che richiede interazioni e forme di collaborazione profondamente innovative rispetto al passato. Un nuovo rapporto che non possiamo più sottovalutare, ma che anzi dobbiamo contribuire a disegnare, senza fanatismi digitali da un lato né visioni catastrofiche di un futuro governato dalle macchine dall’altro. In questo scenario, è molto importante lavorare tutti insieme sulle nuove sfide che gli algoritmi stanno creando, soprattutto sui loro aspetti etici, di responsabilità, di discriminazione, di trasparenza, di equità, di organizzazione del lavoro e di governo nella nostra società. Per fare questo sono necessarie competenze fortemente interdisciplinari, che sappiano dialogare e lavorare insieme, in modo aperto, a 360 gradi, su tecnologie digitali, scienze sociali, economia, diritto, scienze politiche, cultura e società. Ed è altrettanto importante riuscire a trasferire tutto questo ai nostri studenti, che domani avranno il compito di dare un contributo fondamentale alla crescita delle aziende e delle organizzazioni in cui andranno a lavorare. E in questo avranno tanto più successo quanto più saranno in grado di affrontare le nuove sfide che gli algoritmi e l’intelligenza artificiale stanno creando oggi.

 

Articolo pubblicato su Luiss Open

Back To Top