skip to Main Content

Chatgpt

L’altolà del Garante italiano a ChatGpt? Opportuno ma non risolutivo

Il potere dell’intelligenza artificiale, gli appelli recenti e il caso ChatGpt: il dibattito è solo all’inizio. Ecco perché. L'approfondimento del professore Enrico Nardelli dell’università di Roma Tor Vergata, presidente di Informatics Europe e direttore del Laboratorio Nazionale “Informatica e Scuola” del CINI

 

In questi ultimi giorni sta infuriando il dibattito sull’uso di ChatGPT, anche in seguito alla notizia del suo blocco da parte del Garante per la Protezione dei Dati Personali, che ha suscitato reazioni che vanno dal plauso di chi lo ritiene una misura appropriata al rigetto di chi la reputa liberticida e autoritaria. Ritengo quindi che sia prima di tutto necessario far capire, anche a chi non sa niente di tutto quello che “sta sotto il cofano” delle tecnologie digitali, quali sono i termini della questione.

A questo scopo propongo un esperimento mentale partendo da un paragone apparentemente distante ma che, a mio avviso, illustra bene l’essenza della situazione. Immaginate dunque che arrivi qualcuno con un macchinario della grandezza di una caldaia a gas per un appartamento e vi dica: «Ecco un mini-reattore nucleare per uso domestico, la sua carica iniziale di materiale fissile è in grado di darvi acqua calda per riscaldamento e tutte le necessità della casa per i prossimi 10 anni, e costa solo poche migliaia di euro!»

Certamente con questa soluzione potremmo risolvere molti problemi e vivere tutti meglio. Potrebbe però succedere che ogni tanto tale oggetto si surriscaldi e dia luogo ad una mini esplosione nucleare…

Non è una prospettiva molto allettante, vero? Pur senza distruggere la società nel suo complesso e con danni molto limitati, sembrerebbe ovvio a tutti che il gioco non vale la candela. Altrettanto ovvio è che non ne consentiremmo comunque la libera commercializzazione, anche qualora le società produttrici insistessero sulla possibilità di trovare a breve delle soluzioni in grado di impedire del tutto le esplosioni. Né osservare che si tratta di una tecnologia strategica per il nostro Paese, che verrebbe sviluppata da altri se non lo facessimo noi, sarebbe un motivo valido per dare il via libera al suo uso incontrollato.

Ecco, con i sistemi generativi dell’Intelligenza Artificiale (IA), di cui ChatGPT è l’esempio più famoso, siamo in una situazione di questo genere, con la differenza che l’enorme potere che il nucleare dispiega nel mondo fisico l’IA lo rilascia in quello che nel mio recente libro La rivoluzione informatica. Conoscenza, consapevolezza e potere nella società digitale ho chiamato “cognitivo”, intendendo con questo termine quello in cui si esplicano le capacità puramente logico-razionali di concatenare e dedurre fatti. Ho descritto sommariamente in un precedente articolo cosa sono queste “macchine cognitive”, discutendone i pericoli in relazione al processo educativo dei più piccoli.

A rendere ancora più deleteria la possibile evoluzione di questo scenario c’è il fatto che mentre i mini-reattori dovrebbero essere costruiti, spediti e messi in opera uno per uno con dei tempi difficilmente comprimibili, questi sistemi (detti anche “chatbot”) possono essere replicati a volontà senza sforzo alcuno e resi disponibili dovunque in batter d’occhio.

Tutti i media hanno quindi dato grande risalto ad un appello, lanciato il 29 marzo da nomi molto importante nell’area dell’IA, sia scienziati come Yoshua Bengio e Stuart Russell che imprenditori come Elon Musk e Steve Wozniak, per bloccare per 6 mesi lo sviluppo delle nuove generazioni della tecnologia dei chatbot.

Il problema è reale e posso capire perché in molti hanno aderito sottoscrivendo la lettera aperta.

Analisi più accurate di scienziati altrettanto rilevanti hanno però evidenziato il rischio che tale appello contribuisca in realtà ad alimentare la frenesia che in questi mesi ha raggiunto livelli elevatissimi, distogliendo l’attenzione dai problemi reali. Come ha osservato – tra gli altri – Emily Bender, la ricercatrice che nel 2020 ha pubblicato, insieme a Timnit Gebru (scienziata che fu poi licenziata da Google proprio per questo motivo), il primo articolo che allertava sui potenziali effetti negativi di questa tecnologia, la lettera indica alcuni falsi problemi (p.es.: che sia ormai imminente la realizzazione di una “mente digitale” o che sia ormai possibile realizzare un sistema dotato di “intelligenza artificiale generale”) trascurando molti di quelli veri, che sono l’assoluta mancanza di trasparenza su come questi sistemi sono stati messi a punto e funzionano, su quali prove di sicurezza siano state condotte, su come la loro accessibilità a tutti stia già diffondendo disinformazione anche molto nociva (nel mio precedente articolo ho portato qualche esempio), su come il loro sviluppo impatti in modo significativo sul consumo di risorse naturali.

Ripeto ciò che ho detto in altre occasioni: non ritengo abbia senso bloccare ricerca e sviluppo in questo settore ma, come l’esperimento mentale illustrato in apertura spero abbia mostrato, va trovata una qualche forma di regolamentazione che bilanci l’irrinunciabile principio di precauzione con l’importanza di usare l’innovazione per migliorare la società.

Per questo ritengo che l’altolà emesso dal Garante per la Protezione dei Dati Personali sia opportuno, ancorché non risolutivo. La strada da seguire è quella che negli USA ha indicato il Center for AI and Digital Policy (= Centro per l’Intelligenza Artificiale e la Politica del Digitale) sporgendo un reclamo alla Federal Trade Commission (= Commissione Federale per il Commercio, l’agenzia indipendente del governo statunitense dedicata alla protezione dei consumatori e alla sorveglianza sulla concorrenza) e invitandola ad intervenire dal momento che i chatbot attuano comportamenti ingannevoli verso i consumatori e pericolosi dal punto di vista della correttezza delle informazioni e della sicurezza degli utenti.

Analoga richiesta è stata formulata dall’Organizzazione dei Consumatori Europei, che ha chiesto alle autorità nazionali ed europee di aprire un’inchiesta su questi sistemi.

Meglio focalizzata sulle reali questioni in gioco è invece la lettera aperta pubblicata dalla Leuven University (università di Lovanio) in Belgio. Ricorda il rischio di manipolazione cui possono andare incontro le persone nell’interagire con i chatbot, dal momento che alcune costruiscono un legame con quello che percepiscono come un altro essere umano, legame che può dar luogo a situazioni dannose.

Infatti la principale minaccia che i chatbot pongono agli esseri umani è che essi esibiscono una competenza simile a quella degli esseri umani sul livello sintattico ma sono lontani anni luce dalla nostra competenza semantica. Non hanno alcuna reale comprensione del significato di ciò che stanno facendo, ma purtroppo (e questo è un problema di grande rilevanza sul piano sociale) poiché ciò che fanno lo esprimono in una forma che per noi ha significato, proiettiamo su di essa il significato che è in noi.

In estrema sintesi, queste sono le proposte di questo secondo appello: campagne di sensibilizzazione verso il pubblico, investire nella ricerca sull’impatto dell’IA sui diritti fondamentali, creare un ampio dibattito pubblico sul ruolo da dare all’IA nella società, definire un quadro di riferimento legale con forti garanzie per gli utenti, prendere nel frattempo tutte le misure necessarie per proteggere i cittadini in base alla legislazione esistente.

CI troviamo in questo momento storico di fronte a sistemi estremamente potenti, sistemi che però, come ha recentemente ricordato Evgeny Morozov nel suo articolo su The Guardian non sono intelligenti nel senso che noi esseri umani diamo a questo termine, né sono artificiali dal momento che – come ha dimostrato ad abundantiam, tra gli altri, Antonio Casilli nel suo libro “Schiavi del clic” – sono basati su un’enorme quantità di lavoro umano, sommerso e malpagato, svolto nei Paesi del Terzo Mondo, oltre che dal nostro contributo (in)volontario costituito da tutte le “tracce digitali” che forniamo senza sosta durante la nostra attività sulla rete.

I potenziali vantaggi sono enormi, ma anche i rischi. Il futuro è nelle nostre mani: dobbiamo capire insieme, democraticamente, che forma vogliamo che abbia.

(I lettori interessati potranno dialogare con l’autore, a partire dal terzo giorno successivo alla pubblicazione, su questo blog interdisciplinare)

Back To Top