Cosa dovrebbero fare le auto senza conducente in caso di incidente? Salvare la vita di chi è sul veicolo o quella, per esempio, del pedone?
Un giorno, nemmeno troppo lontano, potremmo essere dei passeggeri sulle nostre auto senza conducente. L’intelligenza artificiale sarà il guidatore e farà attenzione agli spazi e ai pedoni. Proprio ai pedoni la macchina del futuro presterà particolare attenzione, risparmiandoli in tutti i modi da eventuali incidenti.
Eppure, secondo un nuova ricerca, quello che la gente desidera non è salire in un auto come descritta sopra, ma in una driverless car che metta al primo posto i passeggeri del veicolo, anche prima dei pedoni. Insomma l’intelligenza artificiale dovrebbe scegliere, in caso di incidente, il male minore per il proprietario: meglio sbattere contro un pedone, dunque, che contro un muro. A rivelare i desideri della gente comune è una ricerca, pubblicata sulla rivista Science, condotta da un gruppo di scienziati informatici e psicologi.
Gli esperti hanno condotto ben sei sondaggi online, negli Stati Uniti, lo scorso anno tra giugno e novembre, chiedendo come i veicoli autonomi dovrebbero comportarsi. In generale, gli intervistati pensano che le auto senza conducente dovrebbero essere programmate per prendere decisioni a favore del bene più grande. E, spesso, il bene più grandi per gli intervistato coincide con il far rimanere in vita loro stessi e i propri cari.
Il dilemma morale, non è di poco conto. Si tratta di qualcosa di serio per le case automobilistiche che sono al lavoro alla driverless car: bisogna decidere e programmare quale dovrebbe essere la scelta della macchina. La questione potrebbe avere anche un’implicazione economica e di business. Le case produttrici potrebbero sfidarsi proprio su questo: creare auto con diversi gradi di moralità. Il consumatore potrà scegliere in base a cosa desidera. O potrebbero esserci delle leggi che decidano cosa dovrebbe fare una driverless car in casi come questo.
Ma come si stabilisce e cosa è il bene più grande? Si tratta, come scrive il New York Times, del ‘problema del carrello’, introdotto nel 1967 da Philippa piedi, un filosofo inglese. Immaginate un carrello che si dirige instabile verso cinque operai, sui binari. Le loro vite possono essere salvate da una leva che passa il carrello a un’altra linea, dove però vi è un operaio. Qual è la cosa giusta da fare?
La ricerca pubblicata su Science pone i costruttori dei veicoli autonomi in una situazione davvero difficile. E dal momento che il concetto di auto senza conducente è nuovo, la cosa potrebbe richiedere anni per trovare una risposta ‘giusta’. Quel che è certo, però, è che “Se si presuppone che lo scopo dell’intelligenza artificiale sia quello di sostituire le persone, allora si avrà bisogno di insegnare alle automobili anche cosa sia l’etica”, ha detto Amitai Etzioni, sociologo alla George Washington University. “Ci dovrebbe essere una collaborazione tra l’umano e lo strumento: la persona dovrebbe essere colui che fornisce una guida etica”.