Innovazione

Google Duplex funziona benissimo. Ma è buono o cattivo?

di

Qualche giorno fa il Ceo di Google Sundar Pichai ha presentato l’ultima novità di Mountain View: Google Duplex. Si tratta dell’evoluzione dell’assistente vocale presente in molti smartphone che funzionano con Android: è un software in grado di fare telefonate e prenotare cene al ristorante o appuntamenti dal parrucchiere. A quanto pare, da quanto Pichai ha mostrato a una platea entusiasta, funziona benissimo. Il problema è che funziona troppo bene. Meglio di un essere umano, verrebbe da dire.

LE TELEFONATE “QUASI UMANE”

Il Ceo di Google, nel suo speech, ha fatto sentire un paio di registrazioni di queste telefonate. In un paio di casi, Duplex è riuscito a ottenere il suo scopo e questo nonostante l’interlocutore – ovvero l’addetto del ristorante o del salone di bellezza – si sia dimostrato piuttosto lento nel comprendere le richieste. Ciononostante, Duplex “ha capito” il contesto ed è riuscito a dare sempre risposte sensate. L’intelligenza artificiale ha parlato proprio come avrebbe fatto un essere umano utilizzando intercalari e persino versi tipici di una qualunque conversazione fra persone, tipo “mm-hmm” o “ah-ha”. Ciò che conta più di tutto è che gli interlocutori umani non hanno capito che si trattasse di una macchina. E ciò sta sollevando critiche e diversi interrogativi etici.

LE MACCHINE POSSONO INGANNARCI

Il punto fondamentale su cui ci si interroga è se sia giusto (ed etico) che gli esseri umani “trattino” con una macchina pensando di avere a che fare con una persona. O, se vogliamo ribaltare il punto di vista, che una macchina “inganni” un essere umano simulando di essere anch’essa umana.

Per ora stiamo parlando semplicemente di prenotare una cena al ristorante, ma le applicazioni di questa tecnologia, che si basa sul deep learning (l’apprendimento automatico che alcune intelligenze artificiali possono esercitare a partire dall’analisi di dati), sono vaste e potenzialmente pericolose. Basta immaginarsi un ipotetico software programmato non per fissare appuntamenti ma – ad esempio – per rubare dati.

COME DISTINGUERE UOMO E BOT?

La vicenda Duplex ha sollevato soprattutto una questione etico-filosofica: nelle telefonate, la performance migliore – in termini di comprensione del contesto – non è quella dell’interlocutore umano, ma quella della macchina. In poche parole: l’intelligenza artificiale sembra più intelligente di quella umana.

Un ultimo tema, correlato a quest’ultimo punto, è il seguente: la tecnologia attuale fa sì che, almeno in contesti circoscritti, gli essere umani non siano più in grado di capire di stare parlando con la macchina. I Turing Test, uno dei metodi più diffusi che permettono di “scovare” i bot (su cui si basano per esempio i “captcha”, quelle specie di password che molti siti richiedono per effettuare il login e che si basano spesso sul riconoscimento di lettere o numeri) presto potrebbero non bastare più. Perché, al crescere dell’”intelligenza” delle macchine possono esserci software in grado di superare il Turing Test laddove alcuni umani possono fallire. Un po’ come succedeva nel romanzo di Philip Dick da cui è stato tratto il film Blade Runner.

A questo punto la domanda diventa: col progredire della tecnologia, come faremo a distinguere gli uomini dalle macchine? Sono scenari che Dick e Asimov avevano indagato già decenni fa, ma quella oggi sembra sempre meno fantascienza e sempre più realtà, perché il futuro è arrivato.

Da ultimo: che succederebbe se la grande diffusione dei bot capaci di telefonare avesse come effetto un “abbattimento” della credibilità di ogni comunicazione, nato dal fatto che sarebbe virtualmente impossibile distinguere una chiamata “vera” da una artificiale?

I CRITICI: «DUPLEX È ORRIPILANTE»

Tornando a Google Duplex, se gli entusiasmi sono stati molti, le critiche sono state quasi altrettante. Zeynep Tufekci, docente alla University of North Carolina e studiosa del rapporto fra tecnologia e società ha scritto un duro post su Twitter. «Orripilante. Google Assistent inganna gli esseri umani non solo non rivelando di essere un bot, ma anche aggiungendo “umm” e “aah” alla conversazione. E la gente ride! La Silicon Valley è eticamente perduta, senza timone, e non ha imparato nulla». Il fatto che Duplex non avvertisse della sua natura robotica non è piaciuto a molti, tanto che Google ha deciso che in futuro gli interlocutori verranno avvisati.

GLI ENTUSIASTI: «DUPLEX NON FA MALE A NESSUNO»

D’altro canto, altri studiosi hanno evidenziato gli aspetti positivi di Duplex. L’ha fatto per esempio Chris Butler, esperto di intelligenza artificiale, che ha sottolineato come dal punto di vista etico l’assistente vocale non provochi sofferenza e comunque ottenga effetti positivi verso chi lo usa e nessun danno per chi verrebbe da esso “ingannato”. Butler, però, limita la sua analisi al solo il caso di Duplex che prenota la cena al ristorante, senza indagare su cosa potrebbe succedere se la tecnologia fosse applicata ad altri settori, magari con fini meno nobili.

GLI STRUMENTI NORMATIVI

Il problema non sta tanto nella tecnologia in sé ma nell’utilizzo che ne si fa. È chiaro che, di pari passo con la creazione di strumenti sempre più avanzati e “intelligenti” occorre sviluppare un quadro normativo che limiti gli effetti negativi – sempre possibili – del loro utilizzo improprio. Il dibattito in fondo è simile – oltre che strettamente correlato – a quello sugli algoritmi in grado di influenzare l’opinione pubblica tramite la diffusione di fake news sul social network.

Tenuto presente che l’innovazione tecnologica non si può arrestare, occorre mettersi nella condizione che non sia utilizzata per scopi dannosi. Anche perché se così non sarà, con macchine indistinguibili dagli esseri umani – e potenzialmente molto più “intelligenti” di noi – le conseguenze potrebbero davvero essere catastrofiche.

ISCRIVITI ALLA NOSTRA NEWSLETTER

Iscriviti alla nostra mailing list per ricevere la nostra newsletter

Iscrizione avvenuta con successo, ti dovrebbe arrivare una email con la quale devi confermare la tua iscrizione. Grazie, il tuo Team Start Magazine

Errore

Articoli correlati