skip to Main Content

Intelligenza Artificiale

Che cosa combinerà fra poco l’Intelligenza artificiale? Dibattito tra prof.

Sull'Intelligenza artificiale si confrontano bias-fixers e bias-blockers. Fatti, nomi, tesi e polemiche

L’idea che l’intelligenza artificiale possa replicare o addirittura amplificare i pregiudizi umani, un tempo era relegata ai margini del settore mentre oggi il discorso pare essere stato assorbito all’interno del mainstream: e ogni grande azienda tecnologica che si rispetti sta dicendo la sua sull’etica dell’IA. A riassumere la posizione è Kaveh Waddell, reporter di settore per Axios.

UNA DIVISIONE “CRITICA”

Secondo Waddell esiste una “divisione critica” tra i riformatori dell’intelligenza artificiale: “Da un lato ci sono i bias-fixers (cioè quelli che tendono a credere di poter aggiustare tutto, ndr), che credono che i pregiudizi possano essere eliminati dal sistema con un po’ più di matematica (le Big Tech è in gran parte in questo campo)”. Dall’altro lato ci sono i bias-blockers (coloro che sono orientati per il blocco totale, ndr) “che sostengono quindi che l’IA non dovrebbe avere alcun posto nelle decisioni in cui c’è un’alta posta in gioco”. Per Waddell questo dibattito è importante perché “definirà il futuro dei controversi sistemi di IA che aiutano a determinare il destino delle persone”.

LE ARGOMENTAZIONI SUL TAVOLO

Un recente editoriale del New York Times ha esposto l’argomento con il titolo “Gli algoritmi distorti sono più facili da correggere rispetto alle persone distorte”: “La discriminazione per algoritmo può essere scoperta più facilmente e risolta più facilmente”, ha sottolineato il professore della Chicago University Sendhil Mullainathan. Yann LeCun, responsabile dell’IA di Facebook, ha twittato approvando: “I pregiudizi nei dati possono essere corretti”.

Nonostante questa presa di posizione, prosegue Waddell su Axios, “alla conferenza accademica più importante per l’IA di questa settimana, Abeba Birhane dell’University College Dublin ha presentato il punto di vista opposto”. Il punto chiave proposta da Birhane parte con un interrogativo: “Questo strumento che sto sviluppando, in primo luogo è necessario?”. E per rispondere ha fornito esempi classici di algoritmi potenzialmente pericolosi, come uno che sosteneva di determinare la sessualità di una persona da una foto del suo volto, e un altro che cercava di indovinare l’etnia di una persona nello stesso modo. “Il bias non è un problema che possiamo risolvere con la matematica perché l’idea stessa di bias ha davvero bisogno di un pensiero molto più ampio”, ha detto Birhane ad Axios.

In un recente saggio Frank Pasquale, un professore di diritto che studia l’AI, chiama questo fenomeno “una nuova ondata di responsabilità algoritmica che guarda oltre le correzioni tecniche verso questioni fondamentali sulla disuguaglianza economica e sociale”. “C’è sicuramente ancora resistenza intorno ad esso”, ha aggiunto Rachel Thomas professoressa dell’Università di San Francisco. “Molte persone stanno ricevendo il messaggio sui pregiudizi, ma non stanno ancora pensando alla giustizia”. “Si tratta di un argomento scomodo per le persone che vengono fuori attraverso l’informatica in ambito accademico, ma trascorrono la maggior parte della loro vita nel mondo astratto”, ha invece sottolineato Emily M. Bender, una professoressa dell’Università di Washington. Bender ha sostenuto in un saggio la scorsa settimana che alcune ricerche tecniche non dovrebbero essere fatte.

IL SEGRETO È NON VEDERE LA QUESTIONE DAL PUNTO DI VISTA MATEMATICO MA ANCHE SOCIALE

Ma qual è il punto fondamentale di tutto ciò? “La tecnologia può aiutare a sradicare alcuni pregiudizi nei sistemi di IA. Ma questo movimento in ascesa sta spingendo gli esperti a guardare oltre la matematica per considerare come le loro invenzioni possano essere utilizzate al di là del laboratorio”, ha spiegato Waddell su Axios. In sostanza, come ha sintetizzato Kate Crawford, co-fondatrice dell’AI Now Institute della NYU “i ricercatori della IA devono iniziare lo studio sull’intelligenza artificiale cercando di vedere dove gli algoritmi verranno applicati. E piuttosto che pensare a loro come problemi tecnici astratti, vederli come interventi sociali profondi”.

IL VERO DIBATTITO È SE ESISTE O MENO UNA SOLUZIONE EQUA

In ogni caso, ha osservato Axos, in un altro articolo, nonostante la marea di denaro e la spinta politica per far progredire l’IA, “ricercatori, aziende ed elettori hanno preso una pausa quest’anno”. “Le campagne per vietare la tecnologia di riconoscimento facciale sono riuscite a San Francisco, Oakland e Somerville, Mass. Questa settimana, anche la vicina Brookline l’ha vietata”. Il risultato? Congelamenti o restrizioni anche su altri usi controversi dell’IA. “Questo scenario spaventa le aziende tecnologiche”, ma “la vera questione al centro del dibattito è se esista o meno una soluzione equa”, si legge su Axios.

La realtà ci dice che purtroppo non è così “specialmente quando le aziende e i ricercatori chiedono alle macchine di fare l’impossibile, come indovinare le emozioni di qualcuno analizzando le espressioni facciali, o predire reati futuri basati su dati distorti”.

BUON SENSO SOSPESO QUANDO SI PARLA DI IA

“È antiscientifico immaginare che un algoritmo possa risolvere un problema che gli esseri umani non possono risolvere”, ha detto Cathy O’Neil, una auditor dei sistemi di IA. I principali colpevoli sono i sistemi di intelligenza artificiale destinati a prevedere i risultati sociali, come le prestazioni lavorative o la recidiva. “Questi problemi sono difficili da risolvere perché non possiamo prevedere il futuro”, ha spiegato il professore della Princeton Arvind Narayananan in una presentazione diventato virale su Twitter. “Questo dovrebbe essere il buon senso. Ma sembra che abbiamo deciso di sospendere il buon senso quando è coinvolta l’intelligenza artificiale”.

COME È NATO IL PROBLEMA

La scintilla che ha innescato la discussione è stata un progetto di ricerca del 2017 di Joy Buolamwini del MIT. Buolamwini ha scoperto che i principali sistemi di riconoscimento facciale soffrono quando devono identificare volti femminili e dai toni più scuri. Lo studio e il suo seguito hanno spinto le aziende a cercare di “risolvere” il problema aumentando l’accuratezza dei loro sistemi attraverso i volti – soprattutto raccogliendo più dati da gruppi sottorappresentati, a volte in modi poco chiari. Ma Buolamwini e altri sostengono che la tecnologia non dovrebbe essere usata senza essere strettamente regolamentata.

Le aziende stanno restringendo l’accesso ai loro algoritmi di IA, invocando la protezione della proprietà intellettuale per evitare di condividere i dettagli su come i loro sistemi arrivano a decisioni critiche. “Il vero problema è che noi cittadini non abbiamo il potere di esaminare questi algoritmi – ha ammesso O’Neil -. Sono usati da attori privati per un guadagno commerciale”.

Back To Top