C’era grande attesa per quello che si sarebbe detto al G7 in Puglia sull’intelligenza artificiale (IA).
A ottobre la presidente del Consiglio Giorgia Meloni aveva annunciato di volerla porre al centro dell’incontro, per poi uscirne alla fine con il riconoscimento condiviso della “necessità di approcci alla governance dell’IA che favoriscano l’inclusione, per aiutarci a sfruttare il potenziale dell’IA in un modo che rifletta questi valori e promuova il suo sviluppo mitigandone i rischi, anche per quanto riguarda i diritti umani”, come si legge nella nota congiunta.
L’intervento più atteso è stato quello di Papa Francesco, che ha ribadito l’importanza di mantenere al centro della tecnologia l’uomo.
Concetti scontati, su cui è facile essere d’accordo, e piuttosto stantii.
Lo scrittore Isaac Asimov aveva fatto di meglio nelle sue famose leggi della robotica, riprese anche nella prima proposta europea di regolamentazione della robotica del 2016, mai approvata, forse perché troppo avveniristica.
Banalità papali
Da Borgo Egnazia non è uscito niente di nuovo, se non un certo sgomento.
Anche il discorso del Pontefice non è stato particolarmente entusiasmante. Francesco ha definito l’intelligenza artificiale uno “strumento affascinante e tremendo”, uno dei più straordinari frutti del potenziale creativo umano, una manifestazione tangibile di quella “saggezza, intelligenza e scienza” che, secondo le Sacre Scritture, Dio ha donato all’umanità.
Ha ricordato i suoi impatti in numerosi ambiti, dalla medicina alla comunicazione, dall’educazione alla politica, evidenziando che influenzerà sempre più profondamente la nostra esistenza, le relazioni sociali e perfino la nostra concezione dell’identità umana.
L’intelligenza artificiale non è uno strumento come gli altri – ha detto – ma è qualcosa di diverso per la sua capacità di adattarsi e di operare scelte indipendenti, per cui si deve stare attenti a non delegarle completamente le decisioni perché ciò significherebbe rinunciare alla nostra umanità, privandoci della capacità di determinare il nostro destino.
In questo scenario il Papa ha ribadito che può essere fonte di discriminazione e che nessuna macchina dovrebbe mai decidere se uccidere un uomo, ammonendo sull’uso dell’intelligenza artificiale in ambito bellico, anche se questo intervento, senza dubbio apprezzabile nella sostanza, stride con il comandamento di non uccidere che è rivolto all’uomo.
Il Pontefice ha parlato anche di giustizia e di quanto sia pericoloso utilizzare sistemi che calcolano la propensione al crimine di una persona, raccomandando che le decisioni non vengano mai assunte autonomamente da una macchina che calcola sulla base di algoritmi che sono lontani dai criteri di valutazione dell’essere umano.
Non c’è soltanto l’etica
Sono temi complessi, ma quello che sorprende è che la chiave di volta per affrontare tutti i problemi e le sfide dell’intelligenza artificiale, resta sempre e solo l’etica o, meglio, l’algoretica, l’etica degli algoritmi, che dovrebbe indurre le macchine ad operare per il bene comune.
Tutti questi concetti erano già stati espressi nella Rome Call for AI Ethics del 2020, sono passati quattro anni, l’intelligenza artificiale è in continua evoluzione e siamo ancora fermi lì.
Nessuno nega l’importanza dell’etica e della centralità dell’uomo, ma non è dato sapere cosa si intende fare in concreto.
L’Europa ha varato l’AI Act, con il fine di armonizzare le normative nazionali ma soprattutto per garantire il rispetto dei diritti fondamentali dell’uomo e nel farlo ha dimostrato la debolezza di un intervento normativo per uno scopo così elevato. Il Regolamento europeo si propone di raggiungerlo utilizzando criteri e metodologie adottate per la sicurezza dei prodotti, incentrandosi sul concetto di rischio che deve essere parametrato al rischio di violare i diritti fondamentali.
In questo contesto è stata imposta l’adozione di una FRIA, Fundamental Rights Impact Assessment, ovvero una valutazione d’impatto per calcolare, come si fa per la sicurezza dei prodotti, il rischio che l’uso di una macchina, in questo caso l’intelligenza artificiale, possa produrre un danno e adottare di conseguenza le misure per mitigarlo.
Per fare questo si ricorre a norme tecniche, e non a caso a Novembre 2023 è stata varata la normativa ISO 42001 pensata proprio per l’intelligenza artificiale, con la peculiarità che non stiamo parlando del rischio di un danno qualsiasi, ma della probabilità di incidere negativamente sui diritti fondamentali e questo pone seri dubbi che una norma tecnica possa riuscire nell’intento.
La realtà è che non abbiamo strumenti adeguati per affrontare quello che ci aspetta e ricorriamo a vecchi schemi mentali nel disperato tentativo di arginare un fiume in piena.
In questo contesto a dormire sonni tranquilli, per non dire euforici, sono i soliti big della tecnologia, che continuano indisturbati a sviluppare macchine sempre più potenti, nuovi modelli di machine learning, attuando visioni dell’umanità a loro insindacabile giudizio.
Peccati di omissione
Il futuro dell’intelligenza artificiale è in mano ai privati. Questo è il problema vero, che dal G7 non è stato neppure sfiorato.
Mai come adesso il potere di chi detiene la tecnologia ha raggiunto livelli preoccupanti, con imprese che non hanno come obiettivo primario il bene comune e il cui bilancio supera di gran lunga il Pil di molti paesi.
All’interno del G7 l’intelligenza artificiale avrebbe dovuto essere trattata seriamente come un tema fondante perché da essa dipende il nostro futuro e la sopravvivenza stessa della politica, prima ancora che dell’umanità.
Da anni indirizziamo il mondo scegliendo i servizi di Microsoft piuttosto che quelli di Google, puntando sull’open source piuttosto che sui servizi proprietari, molto più che recandoci dentro urne elettorali ormai deserte.
C’è bisogno di trovare soluzioni nuove, forme di collaborazione attiva tra pubblico e privato, alimentare un dibattito serio sulle materie prime e sull’energia. Siamo in una fase storica in cui si devono ripensare le categorie fondamentali con uno spirito rivoluzionario, mentre dal G7 si esce con concetti vecchi e soprattutto inutili all’atto pratico.
Niente cambierà da domani, perché di niente si è parlato e ben poco si è capito. Sul destino dell’intelligenza artificiale aspettiamo di leggere i comunicati di OpenAI, l’azienda che ha creato ChatGPT.
(Estratto dalla newsletter Appunti di Stefano Feltri: ci si iscrive qui)