skip to Main Content

Sicurezza Algoritmo

Quando il poliziotto è un robot e il giudice un algoritmo

Artificial Intelligence, predictive policing, facial recognition, sentiment analysis, bodycam: strumenti per ridurre la criminalità e aumentare la sicurezza pubblica o pericolo per la privacy e rischio repressione? L'articolo di Gian Marco Litrico

 

Washington D.C., 2054. Il capo di una unità di polizia chiamata PreCrime e formata da PreCog, individui geneticamente modificati capaci di prevedere i crimini, si dà alla fuga quando scopre di essere nel mirino della giustizia come futuro autore di un omicidio. Nella storia a lieto fine, l’eroe – interpretato da Tom Cruise – riesce a smascherare il complotto di un alto funzionario del Dipartimento di Giustizia, a riabilitare il proprio nome e a far chiudere il programma PreCrime.

La trama, ovviamente, è quella di Minority Report, il film del 2002 con cui Steven Spielberg ha tradotto in immagini un racconto distopico di Philip K. Dick incentrato su un sistema giudiziario con l’obiettivo dichiarato di proteggere i cittadini, ma che si trasforma invece in uno strumento per perseguire i reati d’opinione, colpire ed eliminare dissidenti politici o altri gruppi ritenuti indesiderabili da coloro che sono al potere.

Ora, il punto è che in diverse città americane, ma anche in Paesi europei come Regno Unito, Germania, Olanda e Danimarca, o in Paesi asiatici come Cina, Giappone, India ed Emirati Arabi Uniti, il predictive policing è una realtà già da qualche anno, ma a prevedere il futuro non sono i PreCog, ma gli algoritmi.

Nel 2010, la città di Santa Cruz, in California, è stata una delle prime a usare un algoritmo creato utilizzando i dati sulla criminalità per prevedere reati futuri, individuando “hot spot” ad alto rischio non più grandi di 50 metri quadrati. Gli agenti pattugliavano queste aree quando non erano impegnati a rispondere ad altre chiamate. Risultato? Furti con scasso diminuiti del 19% in sei mesi.

Il Dipartimento di Polizia di Los Angeles ha testato il metodo in una città molto più grande e con esigenze di pattugliamento più complesse. Le mappe distribuite agli ufficiali all’inizio del turno, proprio come a Santa Cruz, in parte vengono prodotte utilizzando i tradizionali metodi usati dalla polizia, in parte sono create dall’Artificial Intelligence (A.I.). Anche in questo caso con risultati positivi: le mappe create dall’algoritmo sono risultate due volte più accurate di quelle basate sull’esperienza umana, mentre i crimini contro la proprietà sono diminuiti del 12%.

A Camden, nel New Jersey, in cima alla lista delle città più pericolose d’America, l’algoritmo ha ridotto i crimini del 26% e gli omicidi del 41%.

Grazie a questi risultati sul campo, e a dispetto dei fantasmi evocati da Tom Cruise, nel 2011 il predictive policing è stato incluso da Time Magazine nella lista delle 50 migliori invenzioni dell’anno, inaugurando un decennio di entusiasmo nell’opinione pubblica e creando nuove opportunità di business per imprenditori e investitori. PredPol, fondata nel 2012 da un professore della UCLA, con Palantir, è oggi uno dei leader di mercato con una sessantina di dipartimenti di Polizia come clienti, che pagano circa 15 mila dollari all’anno per il servizio.

Per i suoi sostenitori, il predictive policing garantisce una previsione più accurata dei crimini futuri perché si affida ai Big Data piuttosto che al solo istinto degli agenti di polizia, limitando il rischio che vengano prese decisioni basate su pregiudizi piuttosto che su elementi fattuali.

Il tutto con risparmi che uno studio del 2019 di Rand Corporation ha stimato, negli Stati Uniti, nell’ordine dei 2,7 miliardi di dollari all’anno, per effetto della riduzione della criminalità e di una più saggia allocazione delle risorse.

Un algoritmo sviluppato dall’università di Chicago nel 2022 promette previsioni settimanali con il 90% di attendibilità. Dieci punti percentuali in più delle previsioni del tempo. Per il momento, però, il sistema ha permesso soprattutto di verificare quanto le strategie operative della polizia siano, a loro volta, condizionate da pregiudizi socioeconomici, perché tendono ad aumentare la vigilanza nelle zone a maggioranza nera e a basso reddito, mentre fanno registrare più arresti per reati contro la proprietà nelle zone a elevato reddito, trascurandone l’impatto in quelle a basso reddito. Spesso, inoltre, i dati generali vengono utilizzati per profilare un singolo individuo, e molto meno per offrire più servizi sociali e aumentare il coinvolgimento della comunità per combattere alla radice le cause del crimine.

Un ambito in cui la polizia predittiva ha suscitato grandi speranze è quello della prevenzione del fenomeno, quasi esclusivamente americano, dei mass shootings, gli attacchi a scuole, centri commerciali, chiese e altri luoghi di aggregazione che flagellano il Paese da decenni: con la sentiment analysis l’A.I. analizza i post sui social media e altre attività online per identificare potenziali minacce o crimini. Il presupposto è che un post razzista o di emulazione di altri mass shooters sui social media, al pari di elementi come un passato di violenze domestiche o la detenzione di armi da fuoco, possa contribuire a individuarne uno prima che entri in azione, visto che almeno nel 45% dei casi il soggetto lascia trapelare le sue intenzioni. Questo in un Paese dove ci sono 390 milioni di armi da fuoco e 344 milioni di abitanti.

Anche la videosorveglianza, che pure esiste da decenni, con l’A.I. ha fatto un enorme salto di qualità. La differenza, ora, è che non c’è più bisogno di un essere umano per controllare le immagini. Ci pensa un algoritmo.

È così che vengono effettuati i controlli ai confini e individuate in tempo reale, per esempio, le targhe false dei veicoli.

La questione diventa molto più controversa quando questa tecnologia porta al riconoscimento facciale di persone di interesse per un’indagine, individuate mentre si trovano in grandi luoghi di aggregazione come uno stadio o un aeroporto.

La facial recognition viene criticata, ovviamente, quando non funziona: uno studio del 2019 del National Institute for Standards and Technology ha scoperto che aveva una probabilità 100 volte maggiore di identificare erroneamente individui di origine africana o asiatica. Notoriamente l’identificazione sbagliata è una delle cause primarie degli errori giudiziari: per questo il riconoscimento facciale viene considerato come un indizio, e non come una prova certa. Nel dubbio, città come San Francisco e Oakland ne hanno vietato l’uso.

Paradossalmente, però, la facial recognition viene criticata soprattutto quando funziona e diventa lo strumento perfetto per la sorveglianza di massa, minacciando il catalogo completo delle libertà individuali, inclusi il diritto alla privacy e la libertà di espressione, riunione e associazione.

C’è chi, come Agnès Callamard, segretaria generale di Amnesty International, parla tout court di incompatibilità della facial recognition, quando utilizzata per la sorveglianza, con i diritti umani e di “apartheid automatizzato”, chiamando in causa un nuovo sistema chiamato Red Wolf, utilizzato dalle autorità israeliane per monitorare e controllare i movimenti dei palestinesi a Gerusalemme Est e Hebron, dove invece i coloni israeliani viaggiano su strade diverse e non sono tenuti a usare i posti di blocco.

Le stragi perpetrate da Hamas in questo tragico ottobre hanno gettato non pochi dubbi sulla capacità di questi sistemi di prevenire il terrorismo: i sistemi di controllo dei confini israeliani basati su network cellulari, telecamere, sensori e mitragliatrici robotiche controllate da remoto sono stati messi fuori uso, ugualmente da remoto, dai droni di Hamas.

Di certo, non hanno dubbi i cinesi, che come scriveva il New York Times nel 2021, vivono in una gabbia invisibile, dove la polizia viene allertata automaticamente se tre individui con precedenti penali si ritrovano nello stesso hotel, oppure se un uomo con un passato di agitatore politico compra un biglietto del treno o una donna con problemi mentali esce di casa o si avvicina troppo a una scuola.

È attraverso queste tecnologie che vengono represse le rivolte degli Uiguri nello Xinjiang o è stato mantenuto il più stretto lockdown al mondo durante la pandemia del Covid 19.

Xi Jinping lo ha detto esplicitamente: bisogna utilizzare i Big Data come motore per lo sviluppo della pubblica sicurezza e delle sue capacità operative. Tutto questo in un paese in cui le autorità non hanno bisogno di un mandato per raccogliere informazioni personali.

Aziende come Megvii e Hikvision possono individuare un soggetto che passa troppo tempo in una stazione e giungere alla conclusione che si tratta di un borseggiatore. I cattivi, insomma, non hanno un posto per nascondersi, ma questo vale anche per chi contesta il regime.

Ci sono software che prevedono le proteste, raccogliendo i dati di chi denuncia alle autorità superiori quelle locali, creando profili individuali dei protestanti, con diciture come “paranoico, meticoloso o rissoso” o considerando fattori di rischio come un basso status sociale o l’essere stati colpiti da un lutto. Il sistema può tracciare persone con malattie mentali, con una storia di sedizione politica, immigrati, minorenni disoccupati o che non vanno a scuola, stranieri, pazienti AIDS, minoranze etniche. O individuare chi consuma troppa acqua o elettricità e potrebbe essere un immigrato illegale che vive insieme ad altri per diminuire le spese.

Tra le varie opzioni, c’è la possibilità di preparare liste speciali di persone – per esempio i funzionari locali del partito comunista cinese – che il sistema di sorveglianza deve ignorare: come nella fattoria orwelliana, “tutti gli animali sono uguali, ma alcuni sono più uguali di altri”.

Lo scambio privacy per sicurezza mostra notevoli differenze nell’accettazione e nella desiderabilità di queste tecnologie nelle diverse aree geografiche del mondo: l’Europa e il Nord America sono più attente alla privacy, mentre America Latina e Asia sono più disposte al compromesso in materia di diritti dell’individuo per raggiungere più elevati livelli di sicurezza.

Al fondo, resta l’irriducibile ambivalenza di una tecnologia che può minacciare i diritti individuali, ma anche identificare persone scomparse (se ne contano 88mila all’anno solo negli USA) e combattere lo human trafficking (quasi 25 milioni di vittime in tutto il mondo). Nel 2018, la facial recognition ha permesso alla polizia di Nuova Delhi di identificare, in soli quattro giorni, quasi 3.000 bambini scomparsi.

Intanto l’evoluzione tecnologica continua senza soste: Clearview AI, fondata nel 2017, fornisce un database con oltre 20 miliardi di immagini facciali, raccolte con mezzi disponibili pubblicamente, come le foto caricate su account Facebook, Twitter e Instagram. Il sistema è alimentato da una rete neurale che converte le immagini in vettori composti da oltre 500 punti che individuano caratteristiche facciali uniche, come la particolare forma della bocca o la distanza tra gli occhi. Questa enorme quantità di dati ha permesso a Clearview AI di raggiungere il 99% di affidabilità in tutti i segmenti demografici.

A Detroit, nella città più nera d’America, si registrano 300 omicidi l’anno. Anche per questo nel 2016 ha preso il via il Green Light Project, che ha coinvolto inizialmente otto stazioni di servizio dotate di telecamere e collegate con la centrale di polizia. Una luce verde identifica queste aree dove l’utente si sente più al sicuro e il malvivente è più esposto all’azione di polizia. A oggi ci sono oltre 700 esercizi monitorati, che pagano circa 5.000 dollari per installare telecamere e collegamenti.

Funziona? Per Giovanni Circo, dell’Università di New Haven, “i crimini commessi in una delle location protette è più facile che vengano risolti, ma non ci sono prove che il sistema abbia ridotto i reati”. La realtà è che i crimini sono aumentati perché ora compaiono nelle statistiche fattispecie come il taccheggio, che prima non venivano nemmeno denunciate, mentre non sono aumentati i reati violenti.

Anche il progetto Green Light è finito nel mirino delle associazioni per la difesa dei diritti civili: il sistema non usa la facial recognition, ma è la facial recognition che usa le immagini riprese dalla telecamera di sorveglianza. E certo c’è una bella differenza se le foto a cui comparare queste immagini sono quelle segnaletiche o quelle della patente.

Una tecnologia che punta a limitare i casi di uso eccessivo della forza da parte della polizia è quella delle telecamere indossabili, introdotte sotto la spinta di Black Lives Matter, il movimento che si batte contro la discriminazione razziale degli afroamericani attraverso la denuncia degli episodi di brutalità delle forze dell’ordine.

Sotto questa spinta, già dieci anni fa circa un terzo dei dipartimenti di polizia municipale degli Stati Uniti aveva adottato le bodycam. Nel 2014, il presidente Barack Obama si fece autorizzare dal Congresso un finanziamento di 20 milioni di dollari per acquistarne altre 20mila.

Alcune ricerche, come quella dell’Università dell’Arizona nel 2014, hanno dimostrato che le bodycam garantiscono più trasparenza nella ricerca delle prove e una maggiore propensione del cittadino a ottemperare agli ordini del poliziotto, oltre ad un incremento della produttività in termini di arresti e una riduzione del 65% dei reclami sull’uso della forza da parte degli agenti.

Le bodycam riducono la reportistica su carta, rendono gli agenti più cauti nelle loro azioni per effetto dello scrutinio costante sull’operato del personale e aumentano i contatti spontanei con i residenti della comunità.

Per fare in modo che i poliziotti indossino le bodycam la polizia di Los Angeles sta testando una nuova tecnologia che attiva le telecamere nel momento in cui l’agente accende lampeggianti e sirena di emergenza.

Tra i critici, i sindacati, preoccupati per la possibilità che gli agenti vengano distratti dalle bodycam, mentre sono contrari alla accessibilità dei filmati a semplice richiesta del pubblico. Il rischio, dicono, è che si crei un deterrente per le vittime di violenza domestica a chiamare la polizia, nella consapevolezza che saranno filmate. Senza trascurare che i costi delle telecamere e della manutenzione possono portare a tagli in altre parti del bilancio della polizia.

Intanto l’automazione procede spedita: ai tradizionali metal detector nelle scuole e in altri luoghi pubblici, per esempio, si stanno affiancando scanner di nuova generazione, come quelli prodotti da Zero Eyes o da Evolv Technology, un’azienda del Massachusetts che promette di individuare – grazie all’A.I. – “tutte le armi, gli ordigni esplosivi e i coltelli prodotti al mondo”.

E questo senza perquisire fisicamente le persone o setacciare borse e zaini, ma facendo passare il pubblico attraverso un semplice varco in grado di fare lo screening di migliaia di persone all’ora, integrabile facilmente negli edifici o usabile all’aperto. Questi sistemi sono disegnati per rilevare armi brandite e parzialmente a vista, sul presupposto che in particolare i mass shooters siano di solito impegnati in una missione suicida e arrivino sulla scena del crimine con l’intento di instillare paura e di poter “controllare” l’ambiente circostante con la minaccia delle armi, al punto da non avere il bisogno di nasconderle. In altre parole, il sistema scommette sul fatto che i mass shooters possano impiegare diversi minuti prima di sparare, estraendo fucili e pistole da automobili o borse nel parcheggio o nel vano scale o in qualsiasi altro punto coperto da una videocamera di sorveglianza.

Il paradosso è che il sistema viene messo in discussione più che dai falsi positivi e dai falsi negativi, come i cestini del pranzo scambiati per ordigni esplosivi o le pistole non rilevate, dal pericolo che rappresenta per il Secondo Emendamento, quello che attribuisce ai cittadini americani il diritto di detenere e portare armi.

L’obiezione delle aziende produttrici è che senza A.I. una videocamera di sorveglianza rischia di essere solo un deterrente o, al massimo, uno strumento per ricostruire a posteriori il modus operandi di un assalitore, più che un mezzo per gestire l’emergenza: una metropoli americana può avere fino a 30mila telecamere, è il ragionamento, ma con un numero troppo esiguo di addetti per monitorarle.

Inoltre, i sistemi di allarme affidati all’A.I. sarebbero più affidabili nel fornire informazioni sulla posizione e l’armamento dell’aggressore. Come proverebbero le oltre 100 chiamate di studenti e personale scolastico al numero per le emergenze 911, durante l’attacco alla Robb Elementary School di Uvalde nel 2022, senza che i 376 poliziotti arrivati sul posto potessero entrare in azione efficacemente.

Un’altra applicazione all’avanguardia è la “gun shot recognition”. Il sistema di rilevamento di SoundThinking utilizza una rete di sensori acustici posizionati in un’area urbana (20-25 microfoni per chilometro quadrato) per individuare il suono di uno sparo, il calibro dell’arma, la posizione dello sparatore e il numero di colpi esplosi. Il dati sono elaborati dall’A.I. e validati da esperti del settore durante la fase processuale.

Se vi sembra un’idea balzana, considerate che SoundThinking, quotata al NASDAQ dal 2017, ha 46 aziende concorrenti e che oltre un centinaio di città negli Stati Uniti, tra cui Chicago, New York e San Francisco, spendono centinaia di migliaia di dollari all’anno per implementare il sistema.

Il MacArthur Justice Center ha scoperto che anche questi sistemi vengono installati maggiormente nelle comunità nere, che già sopportano il peso di una presenza più massiccia della polizia. Aggiungete i 60 falsi positivi al giorno, registrati per esempio a Chicago, e avete la ricetta per un aumentare il già tragico bilancio delle uccisioni di persone di colore da parte della polizia.

Per contro, c’è chi sottolinea – come fa Jeff Merritt, responsabile dell’IoT e della trasformazione urbana presso il World Economic Forum – il dato della “diffidenza tra le comunità e la polizia, che fa sì che le comunità a basso reddito tradizionalmente emarginate siano meno propense a chiedere aiuto. L’introduzione di tecnologie come il rilevamento dei colpi di arma da fuoco consente agli agenti di polizia e alle forze dell’ordine di rispondere e aiutare la comunità”.

Gli algoritmi possono essere utilizzati per analizzare le prove del DNA sulla scena del crimine per identificare potenziali sospetti o vittime, anche a molti anni di distanza e in presenza di tracce minime o mescolate a quelle di altri soggetti. Nel 2018, la polizia della California ha utilizzato un sito specializzato in genealogia basata sull’analisi del DNA per identificare Joseph James DeAngelo Jr., un serial killer che era stato attivo negli anni ’70 e ’80. Non ci sono dubbi che nel suo caso sia stato violato il diritto alla privacy del consanguineo del killer, i cui dati sono stati condivisi dal sito con la polizia senza consenso.

Paradossalmente il dibattito sulla privacy nel caso degli adottati e dei figli dei donatori di sperma che usano questi stessi metodi per trovare i loro genitori fa meno rumore mentre qui è la polizia a beneficiarne, però è grazie alla prova del DNA che vengono individuati i colpevoli, ma anche scagionati gli innocenti, come è successo in Colorado nel 2009, quando un uomo è stato scarcerato dopo aver trascorso quasi 10 anni in prigione per uno stupro che non aveva commesso.

Nel film Robocop di Paul Verhoeven, Hollywood ha raccontato con quasi 40 anni di anticipo anche un altro filone della evoluzione tecnologica delle attività di polizia. Quello legato all’impiego dei robot.

I robot possono essere utilizzati per svolgere compiti di routine, per esempio come quelli di Spot, l’automa che a Singapore ricorda alle persone nei parchi pubblici di osservare una distanza sociale di almeno un metro. Oppure per svolgere lavori rischiosi come la sorveglianza, il controllo di veicoli sospetti, la rilevazione di esplosivi o la gestione delle situazioni in cui ci sono degli ostaggi. Negli Stati Uniti, 50 agenti di polizia sono stati uccisi in servizio nel 2020, mentre 58 mila sono stati feriti in servizio nel 2018.

Un rapporto della Rand Corporation ha suggerito che l’uso di robot nella polizia potrebbe migliorare la capacità e il tempo di risposta nelle emergenze del 10-20%.

Anche in questo caso, tuttavia, non mancano le preoccupazioni etiche, soprattutto per quello che riguarda l’uso della cosiddetta “forza letale”. A Dallas, nel 2016, un robot uccise con un blocco di esplosivo C4 un ex-militare che si era barricato in un garage dopo aver freddato 5 poliziotti.

Nel 2022, la città di San Francisco, che ne ha in servizio una dozzina, ha autorizzato l’uso della forza letale da parte dei robot, che non sono armati, ma dotati di cariche esplosive per “contattare, neutralizzare o disorientare un sospetto violento, armato o pericoloso”. Insomma, forza letale sì, ma solo in casi estremi e per salvare vite, e sempre sotto il controllo umano visto che solo un certo numero di ufficiali di grado elevato possono autorizzare l’uso di forza letale da parte dei robot.

Almeno per ora. Il loro impiego nella polizia intanto ha già sollevato un problema di accettazione sociale: un sondaggio della National League of Cities, nel 2020, ha rilevato che solo il 36% dei residenti americani si sente a proprio agio di fronte all’idea di impiegare i robot nelle attività di law enforcement.

A Dubai, dove sono in servizio dal 2017, il problema dell’uso della forza letale da parte dei robocop sembra non esistere: parlano 6 lingue, hanno un touch-screen dove si possono presentare denunce e usano le telecamere per individuare prodotti contraffatti. Sono talmente efficienti che è previsto possano costituire il 25% delle forze di polizia entro il 2030.

Numeri simili a quelli che destano la preoccupazione dei sindacati di polizia americani: secondo l’Università di Oxford, entro i prossimi 20 anni potrebbe essere automatizzato fino al 35% dei posti di lavoro nella polizia e nella sicurezza pubblica negli Stati Uniti.

L’A.I. peraltro non minaccia di sostituire solo i poliziotti, ma anche i giudici. Compas, per esempio, è un software proprietario prodotto da Equivant e viene utilizzato negli Stati Uniti per valutare la probabilità che un imputato commetta crimini futuri, analizzando le risposte a un questionario di 137 voci. Sempre più spesso, insomma, la giustizia penale americana utilizza un algoritmo per decidere su cauzioni, condanne e rilascio anticipato di un individuo.

Ma come in Minority Report, la giustizia non è sempre garantita. Anzi. Nel febbraio del 2013, l’afroamericano Eric Loomis venne arrestato alla guida di un’auto che era stata utilizzata in una sparatoria. L’uomo, che negava di avervi partecipato, venne riconosciuto colpevole di aver “tentato di fuggire da un agente del traffico e di aver guidato un veicolo a motore senza il consenso del proprietario”.

Nel determinare la sua condanna a sei anni, il giudice si basò non solo alla sua fedina penale, ma anche sul punteggio assegnato da Compas, che lo aveva classificato come un soggetto ad elevato rischio di recidiva. Nel 2016 Loomis presentò appello contro la sentenza: l’algoritmo aveva violato i suoi diritti processuali perché tra i dati analizzati figuravano non solo i capi di imputazioni attuali o pendenti, la storia degli arresti precedenti, la stabilità residenziale, lo stato occupazionale, i legami con la comunità e l’abuso di sostanze, ma anche l’identità di genere e la razza. Inoltre, l’algoritmo si presentava come una black box di cui non era possibile conoscere i meccanismi di funzionamento e contestare la validità scientifica.

La vicenda di Loomis ha dato il via ad un dibattito che dura da anni: per la newsroom indipendente ProPublica “i neri hanno quasi il doppio delle probabilità rispetto ai bianchi di essere bollati come persone con un rischio di recidiva più elevato, senza esserlo effettivamente”, mentre “Compas commette l’errore opposto con i bianchi, che hanno molte più probabilità dei neri di essere etichettati come a basso rischio, anche se continuano a delinquere”.

Per il produttore Equivant, invece, è possibile creare un algoritmo equo. Gli imputati a cui è stato assegnato il punteggio di rischio più alto hanno commesso nuovi reati con un frequenza quattro volte maggiore rispetto a quelli cui è stato assegnato un punteggio più basso. E questo senza differenze su base razziale. Ad esempio, tra gli imputati con un punteggio di sette sulla scala Compas, il 60% degli imputati bianchi recidivi è quasi identico al 61% degli imputati neri recidivi.

La realtà è che Compas si è rilevata di poco più affidabile delle previsioni individuali fatte da un gruppo di 400 volontari (65% contro il 63%), ma anche leggermente meno affidabile delle previsioni sviluppate collettivamente, corrette nel 67% dei casi.

La controprova è stata fornita da uno studio della Duke University: un algoritmo semplicissimo, di quelli che si possono scrivere su un biglietto da visita, basato su età, genere e detenzioni precedenti, ha raggiunto un’accuratezza nella previsione della recidiva equivalente a quella di Compas.

Va detto che, pur con tutti i suoi limiti, l’uso dell’algoritmo ha permesso di ridurre del 16% la popolazione dei detenuti in attesa di giudizio senza aumentare il tasso di criminalità. Tanto più quando si prende in considerazione il parametro dell’imparzialità dei giudici in carne ed ossa: a New York, per esempio, i più severi impongono la cauzione due volte di più rispetto ai più morbidi, in quella che è, a tutti gli effetti, una manifestazione di totale arbitrarietà.

Come in altri ambiti, anche nelle sue applicazioni per l’amministrazione della giustizia e le attività di polizia, l’A.I. da un lato promette, ma non sempre realizza, veri e propri salti quantici in termini di efficienza, dall’altro crea minacce nuove o rinforza quelle vecchie, soprattutto in materia di diritti dell’individuo.

Per Rand Corporation, per esempio, la polizia predittiva “non è la sfera di cristallo e può solo individuare persone o luoghi che hanno un aumentato rischio di criminalità”. Anzi, classificando i quartieri come ad alto o basso rischio, instilla un pregiudizio negli agenti di polizia, mettendoli in uno stato di allerta non necessario o dando loro un falso senso di sicurezza.

Come abbiamo visto, c’è chi pensa che queste tecnologie siano “discriminatorie” per natura. Per Dorothy Roberts, nel suo Digitizing the Carceral State, i dati inseriti negli algoritmi di polizia predittiva per prevedere dove si verificheranno i crimini o chi è probabile che commetta attività criminali, tendono a contenere informazioni che sono inficiate dal razzismo.

La serie storica di arresti o incarcerazioni, le informazioni sul quartiere di residenza, il livello di istruzione, l’appartenenza a bande o gruppi criminali organizzati, i registri delle chiamate al 911, possono produrre algoritmi che portano ad un’eccessiva sorveglianza delle minoranze etniche o a basso reddito.

Essere arrestati per un reato non è la stessa cosa che aver commesso quel reato. Gli afroamericani, per esempio, vengono fermati in misura maggiore dei bianchi per il possesso di marijuana, nonostante entrambi i gruppi la usino nello stessa misura. Statistiche alla mano, le donne hanno molta meno inclinazione degli uomini a commettere crimini violenti: per questo un algoritmo basato sulla gender neutrality danneggerebbe irreparabilmente l’amministrazione della giustizia nei confronti dell’universo femminile.

Per dirla con una Corte d’Appello americana “la polizia predittiva è l’antitesi del principio della presunzione d’innocenza, uno strumento di applicazione della legge che non equivale a nient’altro che al rafforzamento di uno status-quo razzista”.

Una presa di posizione forte, anche se a ben guardare, come notava il New York Times nel 2017, “non è l’algoritmo ad essere ‘prevenuto’, ma è la realtà che continua ad essere caratterizzata da sconvolgenti differenze razziali. È fuorviante dare la colpa all’algoritmo quando svela modelli statistici reali. Ignorare questi modelli non risolve le disuguaglianze sottostanti”.

Quello che è certo, è che dopo poco più di un decennio dai suoi esordi, il predictive policing incontra sempre più resistenze: proprio all’indomani dell’omicidio di George Floyd a Minneapolis, il consiglio comunale di Santa Cruz ha votato a favore del divieto completo dell’uso della polizia predittiva. La Polizia di Los Angeles ha sospeso il suo programma di previsione dei crimini Laser per l’impatto sproporzionato che il sistema ha sulle persone di colore, mentre nel 2020 un gruppo di matematici ha pubblicato una lettera su Notices of the American Mathematical Society esortando i colleghi a interrompere il lavoro sulla polizia predittiva. Oltre 1.500 altri matematici si sono uniti al boicottaggio.

Più in generale, è la sorveglianza di massa da parte delle forze dell’ordine, e soprattutto la possibilità che i dati raccolti siano utilizzati in modo improprio, secondo il Pew Research Center, a preoccupare il 54% degli americani.

Preoccupazione legittima, a giudicare da quanto si vede nelle manifestazioni espositive di settore, che mettono in vetrina tecnologie di frontiera come i lettori di onde cerebrali per individuare le bugie degli interrogati, droni che possono essere ricaricati da remoto, occhiali per il riconoscimento facciale e super-telecamere che possono zoomare a oltre un chilometro di distanza e riconoscere facce e targhe, oltre a sistemi che permettono di decrittare i contenuti immagazzinati in un telefono mobile.

Tutti ricordiamo la guerra a oltranza tra Apple ed FBI, iniziata nel 2015 con quella lettera di 1.100 parole con cui Tim Cook si era rifiutato di creare una backdoor nell’iOS per superare l’encryption del telefono del killer di San Bernardino, responsabile dell’uccisione di 15 persone.

Oggi però ci sono aziende come l’israeliana Cellebrite e l’americana Greyshift che possono decrittare un telefono per poche migliaia di dollari.

Il pendolo, insomma, oscilla: da un lato l’A.I. promette di ridurre la criminalità del 30-40% e i tempi di risposta per i servizi di emergenza del 35%, come calcola Deloitte, dall’altro rende ancora più sottile il diaframma tra sicurezza pubblica e repressione.

Per questo qualsiasi progresso nell’A.I. nel campo delle attività di polizia deve essere accompagnato da una discussione approfondita e aperta su come contenere i rischi di una deriva algocratica della società, senza perdere i benefici enormi che dall’uso di queste tecnologie, quando sono mature, possono derivare.

Pensare, per esempio, ai servizi bancari moderni senza l’A.I. a prevenire e combattere le frodi, i furti di identità e il riciclaggio del denaro è impossibile. I principi basilari del diritto si possono applicare per analogia anche ai più moderni ritrovati della tecnica: per questo la polizia deve generalmente ottenere un mandato di perquisizione prima di utilizzare un drone per condurre una sorveglianza o raccogliere prove in un’indagine penale. Questo perché l’uso di droni per questi scopi è considerato una “perquisizione” ai sensi del Quarto Emendamento della Costituzione degli Stati Uniti, che protegge da perquisizioni e sequestri irragionevoli.

Non mancano esempi in cui è la tecnologia stessa a rimediare ai danni che produce e a ristabilire il diritto: i circa 1.400 manifestanti che erano stati pestati, accecati dallo spray al peperoncino, rinchiusi come animali e arrestati indiscriminatamente per aver marciato contro la violenza della polizia e l’ingiustizia razziale a New York, nel 2020, all’indomani dell’omicidio di George Floyd, tre anni dopo sono stati risarciti con circa 10 mila dollari a testa come esito transattivo di una class action che è costata ai contribuenti più di 13 milioni di dollari, l’importo più alto mai pagato nella storia degli Stati Uniti.

Tutto questo grazie a Codec, uno strumento di categorizzazione dei video lanciato nel giugno 2022 e che si sta rivelando essenziale nelle battaglie legali in tutto il mondo: ore di riprese video ottenute da bodycam, smartphone ed elicotteri delle news serali, possono rivelare violenze orchestrate e sostenute dallo Stato contro i manifestanti.

In Brasile, dove chiunque, in qualsiasi momento o luogo, può essere vittima di un proiettile vagante esploso durante uno scontro a fuoco tra spacciatori di droga per il controllo del territorio o un’operazione di polizia, ci sono in media 111 omicidi al giorno e l’81% dei cittadini teme di esserne vittima.

Dal 2016, l’app “Onde Tem Tiroteio?”, “Dov’è la sparatoria?”, permette ai suoi quasi 5 milioni di utenti di monitorare le aree che attraversano e determinare i percorsi più sicuri, grazie alle informazioni su proteste, furti di veicoli, violenze armate, incidenti o traffico e disastri naturali.

Ecco, insomma, una piattaforma interattiva e geolocalizzata che ha determinato una riduzione del 15% degli omicidi e del 13% delle rapine in strada e dove l’utente è l’elemento fondamentale perché segnala situazioni di violenza o comportamenti sospetti direttamente dal proprio smartphone, attuando una forma di sicurezza da cittadino a cittadino (C2C). Tutti gli avvisi inviati dagli utenti all’applicazione vengono controllati dal team operativo interno, che convalida le informazioni con fonti affidabili prima di emettere qualsiasi allarme, fungendo da filtro per impedire la trasmissione di informazioni false.

Il crowdsourcing come alternativa all’A.I. centralizzata? Ovviamente no, anche perché i pregiudizi non colpiscono solo i programmatori di algoritmi, ma anche i solerti cittadini che riportano una sparatoria.

La sfida è quella di combattere l’opacità di algoritmi complessi che limitano la possibilità di valutare la loro equità, laddove dati potenzialmente distorti vengono utilizzati per creare modelli che violano i diritti costituzionali degli individui, incluso quello a un giusto processo, o disegnano steccati basati sulla discriminazione di razza e censo nel vivo del tessuto sociale.

La strada è quella di permettere solo algoritmi white-box che rispettino i principi di trasparenza, interpretabilità e spiegabilità, così come privilegiare la raccolta di dati anonimi, aggregati e non identificabili per ottenere le informazioni utili per creare linee-guida nella gestione di eventi rilevanti per il pubblico. Parigi, per esempio, ha utilizzato l’A.I. per monitorare la metropolitana e garantire che i passeggeri indossassero maschere facciali. L’obiettivo non era quello di identificare e punire i trasgressori, ma di generare dati anonimi per aiutare le autorità ad anticipare futuri focolai di infezione.

Nel 1829, Robert Peel, il padre della polizia moderna, formulò i Nove Principi dell’applicazione della legge, una sorta di manuale etico per le forze dell’ordine britanniche. Il secondo principio recitava: “La capacità della polizia di svolgere i propri compiti dipende dall’approvazione pubblica dell’esistenza, delle azioni, del comportamento della polizia e dalla capacità della polizia di garantire e mantenere il rispetto pubblico”.

Quasi 200 anni dopo, il principio di Peel è ancora valido: la capacità delle forze dell’ordine di combattere efficacemente il crimine continua a dipendere dalla percezione del pubblico della legittimità delle azioni degli agenti. Non c’è motivo di pensare che lo stesso principio non vada applicato all’Artificial Intelligence.

Back To Top