skip to Main Content

Ucraina Clearview

Ecco come l’Ucraina utilizza il software Clearview AI in guerra

L'Ucraina usa il riconoscimento facciale di Clearview AI nella guerra. Il controverso software della società americana estrae immagini da social media e altre piattaforme è utilizzato per identificare i militari russi

 

L’Ucraina utilizza un software di riconoscimento facciale di Clearview AI per identificare i soldati russi uccisi in combattimento.

In una intervista con Reuters, il vice primo ministro ucraino Mykhailo Fedorov ha affermato che i militari utilizzano la tecnologia per identificare i soldati e quindi inviano avvisi alla famiglia del combattente caduto.

Il sistema di riconoscimento facciale di Clearview funziona confrontando le immagini di un soggetto con il suo database di 10 miliardi di volti, di cui più di 2 miliardi di immagini provenienti dal social media russo VKontakte. In particolare, Fedorov ha affermato che i militari utilizzano l’app per trovare l’account sui social media di un soldato.

Il ministero della Difesa ucraino ha avuto libero accesso a Clearview AI, dopo che la società ha inviato una lettera all’Ucraina offrendo i suoi servizi per aiutare a “scoprire assassini russi, combattere la disinformazione e identificare i morti” una volta iniziata l’invasione, ha rivelato Reuters.

“Le zone di guerra possono essere pericolose quando non c’è modo di distinguere i combattenti nemici dai civili”, ha detto il ceo Ton-That. “La tecnologia di riconoscimento facciale può aiutare a ridurre l’incertezza e aumentare la sicurezza in queste situazioni”.

Inoltre, secondo il ceo di Clearview le autorità di Kiev hanno utilizzato il software di riconoscimento facciale della società verificare che i viaggiatori in Ucraina siano chi dichiarano.

Sebbene i dettagli dell’operazione di identificazione dei soldati russi deceduti in Ucraina rimangano sfumati, la pratica ha già attirato l’attenzione di alcuni esperti di privacy come il direttore esecutivo del progetto Surveillance Technology Oversight Project Albert Fox Cahn che teme la possibilità di un’identificazione errata.

Tutti i dettagli.

IL RICONOSCIMENTO FACCIALE UTILIZZATO IN UCRAINA

Su Twitter il vice primo ministro ucraino Fedorov ha spiegato il processo di identificazione senza nominare specificamente Clearview. “​​Un mese fa, abbiamo lavorato tutti su sistemi FaceID e CRM per elaborare le chiamate per gli eServices”, ha scritto Fedorov. “Ora, lavoriamo sull’identificazione automatica dei cadaveri degli occupanti e sulla composizione automatica degli abbonati RU per dire la verità sulla guerra”.

Intervistato da Reuters, Fedorov ha rifiutato di specificare il numero di corpi identificati attraverso il riconoscimento facciale. Tuttavia, ha affermato che la percentuale di individui riconosciuti dichiarati dalle famiglie era “alta”.

TUTTI I NUMERI DI CLEARVIEW IN UCRAINA

Sebbene Fedorov non abbia menzionato Clearview, ci ha pensato lo stesso ceo a fornire dettagli sulla collaborazione con Kiev.

Il ceo Ton-That ha deciso di offrire gratuitamente i servizi di Clearview all’Ucraina, come ha riportato per primo da Reuters. Ora, meno di un mese dopo, — evidenzia il New York Times — Clearview ha creato più di 200 account per gli utenti di cinque agenzie governative ucraine, che hanno condotto più di 5.000 ricerche. Clearview ha anche tradotto la sua app in ucraino.

“È stato un onore aiutare l’Ucraina”, ha affermato Ton-That, che ha fornito e-mail di funzionari di tre agenzie in Ucraina, confermando di aver utilizzato lo strumento. Ha identificato soldati morti e prigionieri di guerra, nonché viaggiatori nel Paese, confermando i nomi sui loro documenti d’identità ufficiali.

COS’È CLEARVIEW

Clearview AI, fondata a New York nel 2017, ha ricevuto critiche per violazioni della privacy dei dati in tutto il mondo.

La società è balzata alle cronache a inizio 2020 dopo l’inchiesta del New York Times secondo cui le forze dell’ordine negli Stati Uniti – dalla polizia locale in Florida all’Fbi al dipartimento per la sicurezza interna – farebbero uso della sua “app” per il riconoscimento facciale.

I critici sono preoccupati che l’azienda stia brevettando una tecnologia invasiva. Clearview AI non può contare nemmeno sull’appoggio delle Big Tech. Facebook, LinkedIn, YouTube e Twitter hanno intimato alla società di smettere di raschiare le immagini dalle loro piattaforme tramite la tecnologia di riconoscimento facciale.

Rapporti recenti dal Washington Post suggeriscono che Clearview ha l’ambizione di espandere la propria attività oltre le forze dell’ordine. Internamente, la società afferma che il suo sistema di raccolta dati carica 1,5 miliardi di immagini al mese e potrebbe ospitare un totale di 100 miliardi di immagini nel suo database entro la fine del 2022.

I TIMORI

Negli ultimi anni la società ha sollevato preoccupazioni sull’affidabilità e sulle violazioni della privacy. E ora ci si domanda cosa farà Clearview AI con i dati che raccoglie, comprese “foto di vittime sul campo di battaglia”. Come ha sottolineato Fox Cahn, direttore esecutivo del Surveillance Technology Oversight Project, in una recente intervista a Forbes..

“Quando il riconoscimento facciale inevitabilmente identificherà erroneamente i morti, significherà il crepacuore per i vivi”, ha evidenziato Fox Cahn.

Evan Greer, vicedirettore del gruppo per i diritti digitali Fight for the Future, è contrario a qualsiasi uso della tecnologia di riconoscimento facciale. “Le zone di guerra sono spesso utilizzate come campi di prova non solo per le armi, ma anche per strumenti di sorveglianza che vengono successivamente dispiegati sulla popolazione civile o utilizzati per scopi di applicazione della legge o di controllo della folla”, ha sostenuto al Nyt Greer. “Aziende come Clearview sono ansiose di sfruttare la crisi umanitaria in Ucraina per normalizzare l’uso del loro software dannoso e invasivo”.

Nel frattempo, anche gruppi di difesa come Privacy International hanno accusato Clearview di sfruttare la guerra a proprio vantaggio.

LA POSIZIONE DELLA SOCIETÀ

Di rimando Clearview ha affermato in una dichiarazione che sta assicurando che ogni persona con accesso allo strumento sia addestrata su come utilizzarlo in modo sicuro e responsabile. Inoltre, la società ha aggiunto che alcuni test hanno dimostrato che il software è privo di bias e può selezionare il volto corretto da una serie di oltre 12 milioni di foto con un tasso di precisione del 99,85%.

IL GIRO DI VITE DELLE AUTORITÀ PER LA PRIVACY EUROPEE

Infine, oltre a timori e critiche la società è sotto la lente delle authority di tutto il mondo.

A inizio marzo in Italia il Garante Privacy ha multato la società per 20 milioni di euro per aver violato le leggi sulla privacy dei consumatori Ue e ha ordinato di cancellare tutti i suoi dati sui residenti in Italia. L’Ufficio del Commissario per le informazioni del Regno Unito ha inoltre ordinato alla società di interrompere l’elaborazione di tutti i dati degli utenti a novembre. La Francia ha emesso un ordine simile a dicembre.

Negli Stati Uniti, la società newyorchese sta affrontando una causa presso il tribunale federale a Chicago intentata dai consumatori ai sensi dell’Illinois Biometric Information Privacy Act, segnala il Guardian. Il caso in corso riguarda se la raccolta di immagini da parte della società da Internet abbia violato la legge sulla privacy.

Back To Top