L’appello degli addetti e degli esperti informatici a una moratoria sullo sviluppo dell’intelligenza artificiale ha provocato, come abbiamo visto, un vero sconquasso a cominciare dall’intervento dell’Autorità Italiana per la privacy su ChatGpt, e successivamente dal dibattito internazionale che ne è seguito sull’opportunità e sull’utilità di un divieto di questo genere.
Divieto peraltro già aggirato dagli internauti in mille modi. Basti pensare che la parola più ricercata nei giorni scorsi su Google è stata “VPN”, o la frase più cercata “alternative a ChatGPT”. E ce ne sono parecchie di alternative.
Maria Chiara Carrozza, presidente del Consiglio Nazionale delle Ricerche, lei crede che il pericolo di arrivare a un momento in cui non sapremo più governare l’intelligenza artificiale sia reale? Lei come valuta l’allarme degli scienziati?
Dunque, io valuto positivamente l’allarme degli scienziati nel senso che quando la scienza – in questo caso la scienza degli algoritmi e dell’intelligenza artificiale – si trasforma in tecnologia a disposizione di tutti, è giusto chiedersi se l’uso che se ne può fare sia un uso che va contro gli interessi delle persone che la usano o peggio di tutta l’umanità. E quindi penso che sia un appello condivisibile. Ovviamente la proibizione no.
Io sono abbastanza contraria al proibizionismo in senso stretto anche perché poi la tecnologia, come con la famosa VPN, si può aggirare, e quindi bisognerebbe trovare una soluzione di compromesso. Io penso che la cosa migliore sarebbe che gli scienziati italiani che si occupano dell’intelligenza artificiale fossero consultati dalle autorità, sia le autorità di controllo che il governo.
Lei come pensa che anche la società possa garantire che l’intelligenza artificiale non crei delle disuguaglianze sociali, per esempio?
Allora, il problema è un po’ questo, nel senso che il blocco – se non ho capito male, perché io non sono giurista – riguarda la fuga di dati o anche i minori; però non ho una conoscenza approfondita delle motivazioni che hanno spinto il Garante. Sicuramente avrà le sue ragioni.
È chiaro che ogni innovazione porta in sé dei pericoli e se questa innovazione viene utilizzata senza nessun controllo, soltanto a scopo di lucro, per creare profitto, ovviamente questo può creare ulteriori disuguaglianze. Disuguaglianze nell’accesso perché non tutti hanno le piattaforme per accedere. Per esempio chi paga ce l’ha più veloce chi non paga ce l’ha solo di notte. Un po’ come le liste di attesa, e questo sicuramente non è equo.
E poi anche c’è chi comprende cosa c’è dietro e chi invece non lo comprende perché magari a scuola non ha studiato informatica o non ha i rudimenti. Vede, io non vorrei che l’Italia diventasse un paese di utenti di un’intelligenza artificiale sviluppata altrove.
E poi vorrei capire cosa c’è dietro a questo strumento, se c’è semplicemente il desiderio di fare profitto. Io penso che il profitto sia lecito e giusto, ma sono anche per un capitalismo controllato democraticamente, sia dal punto di vista della concorrenza sia dal punto di vista anche dell’ utilizzo dei dati.
Un’ultima domanda. Presidente Carrozza, visti anche il suo ruolo e la sua formazione, qual è il ruolo delle Università e della ricerca nel superare questo impasse?
Allora, prima di tutto io penso che adesso sarebbe il momento di generale anche un comitato consultivo di scienziati per tutte le autorità, incluso il Garante della Privacy e il CNR, promotori insieme a tantissime altre università e centri di ricerca e imprese. Un grande partenariato esteso sull’intelligenza artificiale finanziato dal PNRR.
Abbiamo già, in un certo senso, per usare una parola tecnica, il framework, cioè il contesto, per poter consultare questo partenariato dove c’è il meglio che noi possiamo trovare del mondo e delle menti dell’intelligenza artificiale italiana, per appunto porgli anche dei quesiti sulla strategia da adottare. La strategia è stata fatta qualche anno fa in un mondo che è così in evoluzione, cambia ogni anno, e non si può pensare che quella fatta tre anni fa possa essere vera oggi.
Come avete visto sono nati nuovi prodotti, c’è una competizione perché questo di farla uscire così è stato un atto di marketing. Ma ci siamo chiesti veramente cosa c’è dietro? Ci siamo chiesti quanto consuma questa intelligenza artificiale; quanti computer sono stati attivati, per esempio, per ogni query che noi facciamo; quanta energia sprechiamo solo per chiedere di scriverci un testo.
Per esempio, se io ho una persona che svolge un compito, o la svolge l’intelligenza artificiale, qual è il bilancio energetico? Qual è il beneficio per l’umanità? Insomma, secondo me alla fine per valutare una tecnologia bisogna guardare il ciclo nel suo complesso: chi produce l’energia, chi produce il computer, dove vanno i profitti e qual è il beneficio. Che vantaggi noi abbiamo? Ci sta dicendo veramente una verità scientifica? Ecco, noi ci dobbiamo porre questi dubbi.