skip to Main Content

Riconoscimento Facciale Ibm

Ibm mollerà il riconoscimento facciale? Amazon gongola…

Ibm abbandona il mercato del riconoscimento facciale per problemi di profilazione razziale da parte della polizia e chiede un "dialogo nazionale" sull'uso della tecnologia nelle forze dell'ordine. Interrogativi e dubbi degli esperti

 

Ibm non venderà più il proprio software riconoscimento facciale per scopi generici. Arvind Krishna, ceo di Ibm, ha annunciato ieri che la società non avrebbe più venduto servizi di riconoscimento facciale. Piuttosto ha chiesto un “dialogo nazionale” sull’opportunità di utilizzarlo o meno.

Ha inoltre espresso sostegno per un nuovo disegno di legge, Justice in Policing Act, volto a ridurre la violenza e aumentare la responsabilità della polizia.

La comunicazione arriva quando le società tecnologiche si trovano ad affrontare un maggiore controllo sui loro contratti con la polizia. Sullo sfondo le repressioni da parte delle forze dell’ordine delle proteste dei movimenti Black Lives Matter che stanno scuotendo gli Stati Uniti.

La dichiarazione di Krishna rappresenta la principale presa di posizione di un’importante azienda tecnologica contro l’abuso dei servizi di riconoscimento facciale.

LA LETTERA AI MEMBRI DEL CONGRESSO USA

In una lettera rivolta ai membri del Congresso statunitense, riportata da Cnbc, il ceo di Ibm spiega l’uscita dell’azienda dal business del riconoscimento facciale.

La società ha affermato che sta uscendo dal settore del riconoscimento facciale e che si oppone all’uso di tale tecnologia per la sorveglianza di massa e la profilazione razziale.

“Ibm si oppone fermamente e non perdonerà l’uso di alcuna tecnologia, inclusa la tecnologia di riconoscimento facciale offerta da altri fornitori, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base o qualsiasi scopo che non sia coerente con i nostri valori e Principi di Fiducia e trasparenza”. Recita la missiva.

“Riteniamo che sia giunto il momento di avviare un dialogo nazionale su se e come la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell’ordine nazionali”.

UNA TECNOLOGIA CONTROVERSA

Da anni il software di riconoscimento facciale è controverso per una serie di motivi, tra cui la potenziale violazione dei diritti umani e le evidenze che la tecnologia è meno accurata nell’identificare le persone di colore.

I MOTIVI DELLA DECISIONE

Un rappresentante di Ibm ha precisato ad Axios che la società ha preso la decisione mesi fa e già comunicata ai soci, sebbene questa sia la prima menzione pubblica. Ibm ha dichiarato che “non commercializzerà più, venderà o aggiornerà questi prodotti” ma supporterà i clienti esistenti, se necessario.

Inoltre, la società non svilupperà o effettuerà più ricerche sulla tecnologia, ha dichiarato Ibm a The Verge.

I MOTIVI DI SCETTICISMO

Come sottolinea il Guardian, molti sono scettici sulla mossa di Ibm, osservando che la società era già al terzo posto distante nella corsa alla vendita della tecnologia di riconoscimento facciale. Senza dimenticare che la comunicazione della società lascia scappatoie. Ibm si riserva infatti il diritto di vendere la tecnologia di riconoscimento facciale per scopi specifici, ad esempio, nonché di rivendere la stessa tecnologia ad altri fornitori nell’ambito della sua vasta attività di consulenza.

UN SERVIZIO POCO REMUNERATIVO

Tuttavia, è altrettanto vero che il riconoscimento facciale non ha fruttato molto a Ibm. La tecnologia è davvero agli inizi e ci sono poche applicazioni in cui potrebbe aver senso per la società. A differenza per esempio del controverso servizio Rekognition di Amazon, che è stato testato da un bel po’ di forze dell’ordine. Non gioverebbe quindi a Ibm tentare di competere con un prodotto simile già utilizzato.

I CONSIGLI DEL CEO DI IBM

Nella sua lettera Krishna appoggia dunque la legislazione sulla riforma della polizia e l’uso responsabile della tecnologia. Ad esempio Ibm ha affermato che l’Intelligenza artificiale ha un ruolo da svolgere nelle forze dell’ordine, ma dovrebbe essere accuratamente controllata per assicurarsi che non contenga pregiudizi.

L’ATTACCO (INDIRETTO) AD AMAZON

Nella lettera di Krishna si legge inoltre che “i fornitori e gli utenti dei sistemi Al hanno una responsabilità condivisa per garantire che Al sia sottoposto a test di parzialità, in particolare quando utilizzato nelle forze dell’ordine, e che tali test siano controllati e segnalati”. Questo è un attacco (neppure velato) a quelli che come Amazon, richiamati negli ultimi due anni dalle organizzazioni per i diritti civili per la scarsa qualità del proprio sistema di riconoscimento facciale, non hanno smesso di commercializzarli.

IL COLPO AL CERCHIO (E ALLA BOTTE) DI BEZOS

La scorsa settimana, proprio il fondatore e ceo di Amazon, Jeff Bezos, ha sostenuto pubblicamente il movimento Black Lives Matter, ma ha ripetutamente rifiutato di rispondere a domande sull’uso della propria tecnologia di riconoscimento facciale da parte della polizia.

OCCHIO ANCHE A CLEARVIEW AI

Ma Amazon non è l’unica a occuparsi di riconoscimento facciale. Un’altra società statunitense, Clearview AI, è finita sotto esame a inizio anno per il suo software che confronta l’immagine in un database di oltre 3 miliardi di foto pescate da Facebook, Youtube e da altri siti online.

Secondo un’inchiesta del New York Times le forze dell’ordine negli Stati Uniti, dalla polizia locale in Florida all’Fbi al dipartimento per la sicurezza interna, farebbero uso della sua “app” per il riconoscimento facciale. Da allora Clearview ha ricevuto numerosi ordini di cessate e desistere ed è al centro di cause legali sulla privacy.

E FACEBOOK

Infine anche Facebook è finito nei guai per la tecnologia di riconoscimento facciale. A gennaio il gruppo di Menlo Park ha accettato di pagare 550 milioni di dollari per risolvere una causa di azione collettiva (avviata nel 2015) per l’uso illegale della tecnologia di riconoscimento facciale. Nel mirino la funzione Suggerimenti tag, che individua il volto di un utente in foto e offre suggerimenti su chi potrebbe essere quella persona. La tecnologia memorizzava i dati biometrici senza il consenso dell’utente. Una violazione della legge sulla privacy delle informazioni biometriche dello stato dell’Illinois.

Back To Top