skip to Main Content

Programma

L’incoscienza artificiale è cosciente?

L’appuntamento domenicale con l’approfondimento di Paola Liberace, coordinatrice scientifica dell’Istituto per la Cultura dell’Innovazione

 

Fare domande è più importante che dare tutte le risposte. E il nuovo libro di Massimo Chiriatti, “Incoscienza artificiale” (Luiss University Press, 2021; prefazione di Luciano Floridi, postfazione di Vincenzo Paglia) è pieno di domande. A partire da quella con cui titola l’introduzione: perché incoscienza artificiale? Siamo abituati ad attribuire all’acronimo IA un significato diverso, attribuendo alle macchine una facoltà tipicamente umana, che chiamiamo intelligenza: termine, come Chiriatti sottolinea, non ben definibile, che utilizziamo in questo caso per indicare la straordinaria capacità computazionale dei sistemi.

Computazionale, non intellettiva: inanellando riferimenti che vanno da Turing a Daniel Kahneman, da Edgar Morin a John Searle, passando per Remo Bodei e David Chalmers, Chiriatti spiega come Iasima – la personificazione dell’intelligenza artificiale, un oggetto che si fa soggetto – sia veloce, ma non cosciente; in grado di elaborare tonnellate di dati, ma non di comprenderli; capace di prevedere, non di decidere. Anche questa velocità, questa elaborazione, questa previsione possono peraltro rappresentare un’insidia, se non considerate correttamente: i dati possono contenere distorsioni, la loro elaborazione può essere fallace per ragioni legate agli algoritmi procedurali o alla probabilità statistica, la previsione può in definitiva risultare fondata su informazioni false. La fallacia più grave è quella che Chiriatti definisce “sicumera digitale”: trasformare la predizione digitale in una sentenza, accettando di lasciare che il risultato probabilistico diventi la base della nostra decisione.

“Stiamo delegando alcune nostre capacità”, chiede ancora Chiriatti, “oppure le macchine che riteniamo – erroneamente – nostre schiave stanno iniziando a raccomandarci le azioni escludendoci dal giudizio sulle loro previsioni? Cosa accadrà quando decideranno più loro che noi, oppure, in altri termini, quando supereranno il picco delle decisioni?”. Il punto di Chiriatti non è fornire una risposta – tanto meno una apocalittica, paventando una catastrofe digitale, ma sollecitare la consapevolezza del lettore – umano, quindi cosciente – rispetto alla reale natura dei sistemi digitali: i quali possono crescere, imparare e lavorare, ma senza un fine, perché senza una coscienza.

Che l’acquisizione di una questa coscienza sia una questione di tempo, e perciò quantitativa, o una questione di natura, e quindi qualitativa, resta comunque necessario per l’essere umano adottare un atteggiamento ottimistico e insieme critico, impiegando Iasima nella giusta maniera per esaltare le caratteristiche di entrambi gli strumenti: quello biologico e quello artificiale. Fare “obiezione di incoscienza artificiale” equivale allora per Chiriatti a una profonda dichiarazione di umanesimo, nella quale ribadire la fiducia nella capacità della nostra specie di supervisionare e controllare il processo, con l’ausilio di tre strategie – formazione, investimenti, cooperazione intellettuale – fondamentali per garantirne la tenuta etica. Non “che cosa succederà?”, ma “che cosa dovremmo far succedere” è l’ultima delle tante domande di questo prezioso libro, che non invita a risposte semplici, né immediate, ma ad assumersi fino in fondo la responsabilità della nostra coscienza.

 

 

Back To Top