skip to Main Content

Ibm aprirà la “scatola nera” dell’intelligenza artificiale?

Che cosa ha annunciato Ibm, quali sono le implicazioni e gli scenari. L'approfondimento di Lorenzo Bernardi

La sfida decisiva dell’intelligenza artificiale? Aprire le “black box” del machine learning, per capire sempre meglio come funzionano le macchine “pensanti”. E quindi fidarci di loro.

Il problema della trasparenza dei processi tecnologici sta assumendo rilevanza sempre maggiore, perché facciamo sempre più affidamento sulla tecnologia nella nostra vita quotidiana. Abbiamo auto che si guidano da sole, algoritmi capaci di “prevedere” crimini, sistemi capaci di curarci grazie ai big data. Conseguentemente, anche l’esigenza di “trasparenza scientifica” cresce, soprattutto nei paesi occidentali, dove gli aspetti etici assumono spesso un peso rilevante, almeno nel dibattito pubblico.

L’ARCHIVIO DI “FACCE” DI IBM

Nell’ottica di promuovere questa trasparenza, Ibm intende rilasciare un enorme archivio di immagini e dati da utilizzare per elaborare sistemi sempre più avanzati di riconoscimento facciale da parte delle macchine. Lo farà «per promuovere uno studio più corretto e accurato nell’ambito della tecnologia di riconoscimento facciale», ha comunicato la scorsa settimana.

Il database, chiamato Dif, Diversity in Faces, contiene un milione di immagini di volti con relative annotazioni. Le immagini presenti nel dataset Yahoo Flickr Creative Commons 100M (YFCC 100M) sono state catalogate utilizzando dieci schemi di codifica che prendono in considerazione parametri fissi: ad esempio i rapporti facciali, le dimensioni del cranio, eccetera.

Tutti elementi che i sistemi di riconoscimento basati sull’intelligenza artificiale utilizzano per classificare i volti. Nelle intenzioni di IBM, mettere a disposizione della comunità scientifica il dataset annotato secondo i suddetti 10 schemi accelererà la ricerca nel campo del riconoscimento facciale.

I DATI: IL “CIBO” DELL’INTELLIGENZA ARTIFICIALE

La mole di dati è uno dei fattori decisivi per consentire agli algoritmi di migliorarsi e la mossa di IBM va nella direzione di fornire un supporto “trasparente” alla ricerca tecnologica globale. Oltre alla quantità di dati, infatti, per sviluppare sistemi efficaci è importante anche la loro qualità, perché i risultati dei sistemi di apprendimento automatico sono fortemente influenzato dai dati da cui “imparano”.

Questo problema, oltre che sul piano operativo e tecnologico, ha anche significative implicazioni etiche. Un esempio del tutto ipotetico: se il riconoscimento facciale, per esempio da parte di una telecamera di sorveglianza, potesse venire utilizzato come prova in sede giudiziaria, dovrebbe essere infallibile (e allo stato attuale non lo è). In subordine, sarebbe fondamentale quantomeno capire i meccanismi grazie ai quali esso funziona, per poterlo eventualmente correggere ex post. Di qui la necessità di una maggiore trasparenza dei processi tecnologici, che negli intenti di IBM passa anche dall’accessibilità dei database.

L’EXPLAINABLE AI

Capire come funzionano le intelligenze artificiali è uno dei nodi cruciali per la tecnologia. Lo stadio attuale di avanzamento dell’AI poggia sostanzialmente sull’analisi statistica. Semplificando: un computer riconosce la foto di un panda perché la confronta con migliaia di altre immagini e non, per esempio, perché riconosce le orecchie, gli occhi, e ragionando arriva alla conclusione. Il problema è che talvolta il computer sbaglia e al posto del panda vede una scimmia. E non è in grado di spiegare i suoi processi “mentali”. Di conseguenza, non ci si può fidare della macchina. Un problema che si fa più grave al crescere delle funzioni che affidiamo alle intelligenze artificiali (sanitarie, giudiziarie, legate ai trasporti, eccetera). Ecco perché si sta cercando di sviluppare la cosiddetta “Explainable AI”, un tipo di intelligenza che partendo sempre dall’analisi dei dati sia in grado di ragionare, astrarre concetti e in qualche modo “spiegarsi”.

IL “GRANDE FRATELLO” CINESE

La mossa di Ibm, in apparenza, promette di agevolare lo sviluppo globale e trasparente dell’AI e va senz’altro nella direzione di “aprire le black box” degli algoritmi di machine learning. Tuttavia può avere altre conseguenze.

Non è un mistero che la Cina sta procedendo spedita nello sviluppo e soprattutto nell’utilizzo delle nuove tecnologie di riconoscimento facciale. In alcune città sono già operativi sistemi capaci di individuare un sospetto nel giro di pochi minuti proprio grazie agli occhi elettronici delle autorità, come ha dimostrato un esperimento condotto dalla BBC.

Il database di Ibm da un lato assicura trasparenza e sembra anche fornire un modello alternativo – e più rispettoso dei diritti dei cittadini del “Grande Fratello cinese” – rispetto a quello governativo cinese, efficace quanto sbrigativo in termini di tutela della privacy. Ed è uno strumento che potrebbe senz’altro rivelarsi utile, fra gli altri, anche al governo americano, che sul punto è senz’altro indietro rispetto a Pechino.

IL PROGRAMMA XAI DELLA DARPA

Peraltro a Washington la consapevolezza del problema è alta. Basti pensare che la Darpa, l’agenzia americana della difesa, sta sviluppando un programma sulla XAI, explainable AI. L’obiettivo è avere un controllo “ex post” sui risultati ottenuti dalle intelligenze artificiali, che consenta alle macchine non solo di giungere a conclusioni sensate a partire dall’analisi dei dati, ma anche di ragionare, astrarre, e in qualche modo motivare i propri “responsi”.

Back To Top