Se le nuove tecnologie possano rafforzare il razzismo nelle forze di polizia se lo è chiesto l’Agenzia dell’Unione europea per i diritti fondamentali (Fra). E la risposta è sì.
Servirsi di software per la profilazione algoritmica, il riconoscimento facciale e la polizia predittiva può infatti aiutare a individuare o prevenire le attività criminali, ma comporta anche rischi per i diritti fondamentali (come per esempio sta già accadendo nella Striscia di Gaza e in Cisgiordania, dove Israele raccoglie e usa illegalmente i dati biometrici della popolazione).
COSA FA L’AGENZIA DELL’UE PER I DIRITTI FONDAMENTALI
Fondata nel 2007 e con sede a Vienna, l’Agenzia dell’Unione europea per i diritti fondamentali (Fra) offre consulenze indipendenti basate su elementi concreti a beneficio dei responsabili politici dell’Ue e nazionali per facilitare i dibattiti, le politiche e la legislazione sui diritti fondamentali.
Si concentra principalmente su discriminazione, accesso alla giustizia, razzismo e xenofobia, protezione dei dati, diritti delle vittime e dei minori.
L’Agenzia collabora con le istituzioni, gli organi e le agenzie dell’Ue; i governi e i parlamenti nazionali dei paesi membri; il Consiglio d’Europa; gruppi e organizzazioni che lavorano sui diritti fondamentali; gli organismi nazionali per i diritti umani le Nazioni Unite, l’Osce e altre organizzazioni internazionali.
IL RAPPORTO SUL RAZZISMO IN POLIZIA
Il razzismo, irrisolto e ancora incredibilmente diffuso, è un male che non ha confini né nel tempo né nello spazio. La morte di George Floyd nel 2020 negli Stati Uniti per mano di un agente di polizia è solo uno dei casi più noti ed era bastato il colore della pelle per scrivere il tragico epilogo. Ma i pregiudizi che affondano le loro radici nei secoli oggi rischiano di essere ravvivati e fomentati dalle nuove tecnologie che, tra l’altro, oltre a essere fallaci, spesso hanno gli stessi pregiudizi dell’uomo.
Nel suo primo rapporto sul razzismo nelle forze di polizia, l’Agenzia dell’Ue per i diritti fondamentali (Fra) lancia un allarme proprio sull’uso di questi strumenti per individuare o prevenire le attività criminali.
LATI POSITIVI E NEGATIVI DELLE NUOVE TECNOLOGIE
Tra le nuove tecnologie che destano preoccupazione ci sono la profilazione algoritmica, il riconoscimento facciale, vocale e comportamentale e la polizia predittiva. E alcune di queste, afferma il rapporto, “si basano su una gamma potenzialmente ampia di dati, comprese caratteristiche protette come la razza e l’etnia”.
In alcuni casi è innegabile che possano essere di aiuto, come per esempio per valutare i rischi in relazione ai casi di violenza domestica di genere, ma in altri sono un rischio per i diritti fondamentali e la discriminazione razziale è una delle più probabili violazioni.
Complessivamente, sono 21 gli Stati membri dell’Ue che regolano le pratiche di profilazione della polizia attraverso la legge o altre disposizioni amministrative. Tuttavia, solo la Finlandia e alcuni Länder in Germania fanno specifico riferimento alla profilazione sulla base della razza e dell’origine etnica nella loro legislazione.
QUALI PAESI USANO IL RICONOSCIMENTO FACCIALE
Secondo quanto riferito dal rapporto, l’uso di software per il riconoscimento facciale è stato denunciato dall’organizzazione Homo Digitalis in Grecia nei campi profughi sorvegliati dalla polizia e, in Francia, il Défenseur des droits ha messo in guardia dal potenziale senza precedenti di amplificazione e automatizzazione della discriminazione nell’uso delle applicazioni biometriche da parte delle forze dell’ordine.
Tuttavia, in molti Stati membri la polizia ha introdotto tecnologie di riconoscimento facciale a livello nazionale o in aree specifiche, come gli aeroporti o le frontiere. Questo vale per Austria, Bulgaria, Repubblica Ceca, Danimarca, Grecia, Finlandia, Ungheria, Lituania, Paesi Bassi, Polonia e Slovenia.
Lettonia, Malta, Romania e Spagna stanno valutando se introdurle, mentre Francia e Germania le stanno testando.
QUALI PAESI USANO LA POLIZIA PREDITTIVA
I software di polizia predittiva mettono a disposizione dati da polizia, autorità pubbliche e fonti aperte per produrre indicazioni su quando e dove potrebbero verificarsi attività criminali.
Molti Stati membri, si legge nel rapporto, stanno attualmente sperimentando o utilizzando questi strumenti o altri tipi di software di apprendimento automatico per supportare le attività di polizia. Tra loro, insieme all’Italia, ci sono Austria, Belgio, Danimarca, Germania, Grecia, Irlanda, Lituania, Spagna e Paesi Bassi.
Tuttavia, il potenziale di discriminazione etnica e razziale ha allarmato diverse autorità pubbliche e organizzazioni della società civile in Danimarca e Irlanda.
COSA PREVEDE L’AI ACT
L’Ue era al lavoro dal 2018 per regolamentare l’uso dell’intelligenza artificiale (IA), incluso l’utilizzo di algoritmi da parte della polizia. Ora, con l’AI Act, approvato circa un mese fa, non li ha comunque messi del tutto al bando. Ha infatti stabilito che “in linea di principio” le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, a meno che non si tratti di situazioni specifiche espressamente previste dalla legge.
L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Negli usi ammessi rientrano, tra gli altri, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico.
L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio e, quindi, in tal caso l’autorizzazione giudiziaria dovrà essere collegata a un reato.
LE CRITICHE
La norma è stata contestata dalle organizzazioni per i diritti civili, che l’hanno definita “un fallimento per i diritti umani, una vittoria per l’industria e le forze dell’ordine” poiché il testo è “pieno di scappatoie, eccezioni e ritocchi che non proteggeranno le persone, né i loro diritti umani, da alcuni degli usi più pericolosi dell’IA”.
Si evidenziano in particolare i rischi perpetrati dall’uso di sistemi che consentono la sorveglianza biometrica di massa e i sistemi di polizia predittiva, i quali creano “un regime separato per le persone che migrano, cercano rifugio e/o vivono senza documenti, lasciando loro molti meno diritti rispetto ai cittadini dell’Ue e quasi nessun accesso ai rimedi quando questi diritti vengono violati”.