skip to Main Content

Riconoscimento Facciale Ibm

Che cosa sta escogitando Google sul riconoscimento facciale?

L'approfondimento di Andrea Mainardi

 

A Manhattan per un Big Mac servono 5,58 dollari. Ma il volto di chi lo acquista vale meno di un panino. Un ingegnere newyorkese si sarebbe visto offrire una gift card da cinque dollari – spendibile su Amazon o da Starbucks – per prestarsi ad un test di Google che starebbe lavorando al perfezionamento del suo sistema di autenticazione facciale. Il condizionale è d’obbligo: la storia, raccontata da ZDNet, precisa che il professionista in pausa dal lavoro è stato avvicinato in un parco da alcuni incaricati di Google, ma di non avere letto l’informativa.

Era davvero un team del gigante del web? George – il suo nome – per curiosità ha accettato di dedicare cinque minuti del suo tempo a scattarsi alcuni selfie da uno smartphone. Lo scopo? Gli incaricati hanno chiarito che stavano raccogliendo dati per migliorare la prossima generazione di sblocco del telefono con riconoscimento facciale. Team analoghi sarebbero al lavoro in molte città degli Stati Uniti. Non conosciamo il modello del telefono utilizzato.

C’è chi – commentando la notizia – ipotizza possa essere un test sul Pixel 4, il nuovo smartphone di Google ormai in arrivo. Sappiamo che Pixel 4 ha un paio di fotocamere e altri sensori integrati nella sua fronte, senza scanner di impronte digitali.

MILIONI DI MASCHERE, POCHISSIMI VOLTI

Le tecniche di riconoscimento facciale sono da tempo utilizzate anche dalle polizie. Non senza dubbi e manifeste opposizioni. Anche per la scarsa accuratezza. Quello di Apple avrebbe fatto cilecca almeno una volta. Qualche mese fa un diciottenne di New York è stato ingiustamente arrestato per un furto non commesso in uno store della Mela. Il ragazzo ha intento una causa al big della Silicon Valley per un miliardo di dollari. Sul banco degli imputati, il sistema di riconoscimento biometrico utilizzato nei negozi. Apple smentisce la ricostruzione, ma restano le non poche imprecisioni di questi sistemi. E i dubbi di come possano essere davvero utilizzate queste immense banche dati in continua implementazione.

I DUBBI NEGLI STATES

San Francisco, poi Somerville e ora Oakland (California) hanno bandito l’utilizzo delle tecniche di riconoscimento. Come riporta l’Ansa, la motivazione ufficiale, almeno secondo il sindaco di Oakland, sarebbe che “il software è meno accurato per le donne e per le persone di colore”. Lavorare con i visi non è semplice. Nel 2015 la stessa Google dovette scusarsi quando il suo sistema di etichettatura con riconoscimento facciale di Google Photos scambiò un afroamericano per un gorilla. Un anno fa un’associazione per i diritti civili, l’American Civil Liberties Union (Aclu), creò un archivio raccogliendo 25.000 foto segnaletiche e mettendole in relazione con quelle dei 535 parlamentari statunitensi. Amazon Rekognition ha trovato 28 corrispondenze, confondendo decine di rappresentanti del Parlamento Usa con altrettanti criminali presenti negli schedari della polizia. Con un tasso di false associazioni molto più alto tra i parlamentari di colore e tra le donne. Forse anche per questo a Capitol Hill si fanno avanti progetti di legge per regolamentare la tecnologia. Non va meglio di qua dall’Oceano.

IL CASO GRAN BRETAGNA

Il software di riconoscimento facciale utilizzato dalla Metropolitan Police del Regno Unito ha restituito falsi positivi in oltre il 98% degli allarmi generati, secondo un’indagine condotta dall’Independent. L’House Of Commons Science and Technology Committee ha chiesto settimana scorsa al governo di emanare una moratoria sull’uso attuale della tecnologia di riconoscimento facciale e di non tentare ulteriori prove fino a quando non sarà introdotto un quadro legislativo e non saranno stabiliti orientamenti sui protocolli di prova e istituito un sistema di supervisione e valutazione.

COSA ACCADE IN ITALIA

Anche la polizia italiana utilizza il riconoscimento facciale a caccia di criminali. Nel settembre scorso un dirigente della Scientifica disse al Tg1 che il Sistema di riconoscimento delle immagini (Sari) poteva disporre su una banca dati di sedici milioni di volti per individuare quasi in tempo reale i delinquenti. Escludendo i bambini, un italiano su tre sarebbe schedato. Successive comunicazioni ufficiali hanno ridotto il numero a 9 milioni di immagini immagazzinate sui server della nostra Polizia: di questi, sette milioni di stranieri – schedati all’arrivo e non necessariamente più residenti nel nostro Paese – e due milioni di italiani.

UN ALGORITMO VALE LA PRIVACY?

Che gli algoritmi svolgano più o meno bene il loro lavoro, in molti cresce comunque il sospetto che una distopia della sorveglianza sia ormai all’orizzonte. Fight for the Future negli Stati Uniti sta lanciando una campagna nazionale per mettere in luce i luoghi in cui la sorveglianza del riconoscimento facciale è già in atto e come le persone possono agire per fermarlo. Commenta Evan Greer: “Una società dopo l’altra nella Silicon Valley ha fatto un passo avanti furioso con lo sviluppo di strumenti di sorveglianza a scansione facciale. Vedono soldi da fare vendendo questa tecnologia a governi, compagnie aeree e altre imprese private”. I colossi tecnologici chiedono per primi una regolamentazione al Congresso. Sullo sfondo resta il tema: è una tecnologia che a fronte di benefici può davvero essere barattata a scapito di privacy e libertà? Per l’attivista la risposta è chiaramente no: “Siamo sull’orlo di un aumento senza precedenti dello spionaggio statale e privato”.

“L’ATOMICA DEL TERZO MILLENNIO”

Secondo il ricercatore di Harvard Luke Stark, il riconoscimento facciale sarebbe “il plutonio dell’intelligenza artificiale”. Insomma: si tratterebbe di un tecnologia piena di falle: “Troppi problemi di base fanno sì che i rischi superino enormemente i benefici, in un modo che ricorda il nucleare”. In Paesi dove la democrazia e la libertà sono tutelate. Figuriamoci nei regimi. Il caso Cina insegna. Nell’impero comunista la polizia vanta un sistema di sorveglianza accuratissimo. Ufficialmente e ben pubblicizzato, per acciuffare i criminali. Ma anche per tenere d’occhio e individuare i dissidenti. Così come monitorare gli studenti o le prestazioni dei dipendenti sui luoghi di lavoro.

“LA TECNOLOGIA NON È NEUTRA”

Non mancano le buone notizie. Nei giorni scorsi un bambino rapito nel 2001 è stato ritrovato ormai diciottenne grazie ad un’applicazione simile, ma più sofisticata, rispetto alla virale, quanto chiacchierata, FaceApp che in tanti hanno scaricato sui loro dispositivi. Dice all’Ansa il direttore dell’Istituto di Informatica e Telematica del Cnr, Domenico Laforenza: “Il principio generale è che la tecnologia non è mai neutra: dipende dall’uso che se ne fa. Demonizzare un approccio è stupido, se si pensa che la stessa tecnologia può essere d’aiuto alle forze dell’ordine, per trovare i tumori o per aiutare i medici a fare una diagnosi. Deve essere sotto controllo, regolata per evitare usi distorti”. “L’importante – conclude – è sapere che fine fanno i dati e che ci sia un responsabile che eviti che vengano venduti a terzi o usati per altri scopi”.

“TANTO DI GOOGLE NON POSSIAMO FARE A MENO”

Che ne faranno quei researcher newyorkesi del volto dell’ingegnere George catturato nei selfie di uno smartphone? E la privacy? Il professionista ha risposto all’amico giornalista con disarmante realismo: “Fondamentalmente Google ha già tutta la mia vita sui loro server. E rimuovere Google dalla mia vita non può praticamente accadere”. Come spenderà la sua mirabolante gift card da cinque dollari ricevuta in cambio di alcuni scatti non è dato sapere. Di certo non per un Salted Caramel Mocha Frappuccino che negli Starbucks nei dintorni di Central Park di dollari ne costa 5,25. Più del valore delle foto della sua faccia.

Back To Top