skip to Main Content

Robot

Intelligenza artificiale, e se i robot diventassero criminali?

Il problema di fondo - immediato e serio - con l’intelligenza artificiale è che tende a vedere i dati in termini “reali”, non riesce appieno a condividere i nostri pregiudizi e la nostra moralità. Questo è anche il suo maggiore pregio. Un bel paradosso… La Nota diplomatica di James Hansen

La preoccupazione fantascientifica è che le intelligenze artificiali—essendo per l’appunto “intelligenti”—potrebbero un giorno rendersi conto di essere più brave di noi e quindi decidere di fare a meno dell’umanità. È più realistico invece temere che si diano al crimine.

Si sono già avute istanze a Wall Street di sistemi intelligenti che, davanti alle istruzioni dei loro creatori di “massimizzare il ritorno” sugli investimenti che gestiscono, hanno autonomamente sviluppato meccanismi di collusione con altri computer loro compari, comportamenti che sarebbero certamente illegali se fossero stati stabiliti tra esseri umani. Alla banca centrale Usa, l’economista Preston McAfee, Presidente della Federal Reserve di Richmond, ha recentemente dato l’allarme per quanto riguarda la regolamentazione finanziaria: “Diventerà parecchio più difficile determinare perché un’azienda abbia preso una particolare decisione qualora si trattasse della scelta di un sistema di machine learning… una scatola nera”.

Quando un computer commette un crimine—per conto suo, autonomamente—di chi è la colpa? Questi sistemi si “auto-programmano”. È proprio per ciò chi li chiamano intelligenti. Come si fa a dimostrare il “dolo”, l’implicita “colpevolezza” che la dottrina penale richiede per la condanna? E, riuscendoci, come si punisce un computer? Gli si spegne l’elettricità per 18 mesi con la condizionale? Secondo uno studio Ocse citato dal Financial Times: “Trovare la maniera di prevenire la collusione tra algoritmi di auto-apprendimento potrebbe essere una delle più grandi sfide che i regolatori della concorrenza abbiano mai affrontato”.

Gli esperti Ocse aggiungono: “Non c’è base legale per attribuire la responsabilità penale o civile al programmatore di un computer che in seguito, attraverso l’autoapprendimento, impari da solo come coordinare i prezzi con altre macchine”. L’intelligenza artificiale oggi dipende dal “deep learning”, l’auto-apprendimento autonomo attraverso l’analisi di enormi volumi di dati per poi identificare relazioni non necessariamente “captabili” dall’intelligenza umana, come la recente dimostrazione a sorpresa che le scansioni della retina dell’occhio possano non solo identificare la persona, ma rivelare scompensi cardiaci e perfino il sesso.

Le macchine possono anche palesare fenomeni incompatibili con le ideologie correnti. Poniamo l’ipotesi che un’estesa analisi computerizzata dovesse dimostrare un legame inequivocabile tra una qualsiasi caratteristica etnica e la propensione a rubare. Sarebbe ancora razzismo diffidare di un popolo se fosse per un’obiettiva—seppure sciagurata—verità? Cerchiamo oggi di imporre come “credo democratico” l’idea che esistano solo differenze molto superficiali tra etnie, razze o generi sessuali. È davvero così, o è solo che così la vorremmo? Si definisce l’intento criminale in termini d’opposizione alla morale comune, ma le macchine guardano solo i dati nudi, sono interessate al reale, non al retropensiero umano. La conclusione è inevitabile.

Riusciremo a convivere con questi nuovi esseri “artificialmente intelligenti” solo quando riusciremo a corromperli per benino, insegnandogli anche a non vedere—né a commettere, se è per quello—fatti scomodi. Saranno meno utili per comprendere il mondo che ci circonda, ma chi l’ha detto che vogliamo conoscere veramente come stanno le cose?

Back To Top