Skip to content

chatbot

I fatti dietro le chiacchiere sull’intelligenza artificiale

Ci sono troppi dibattiti sull’etica e la morale dei chatbot che prescindono da come funzionano davvero. L'analisi di Alfonso Scarano e Simone Simoncini tratta da Appunti.

Sull’intelligenza artificiale si scrive molto, spesso troppo e male. Il problema non è l’IA; sono i concetti approssimati e una penna (la tastiera?) che corre libera più del pensiero.

L’IA è un oggetto multiforme in termini di contenuti, ma se ne dobbiamo parlare in modo da contribuire alla sua implementazione utile nel Paese, dobbiamo partire da cosa è. In concreto. Prima di ragionare di morale ed etica, che invece sono le protagoniste assolute del dibattito in corso.

E’ molto più facile parlare di temi astratti. Si fa bella figura e soprattutto non si prendono impegni di risultato. Più facile dire come dovrebbe essere in teoria invece che costruire qualcosa di funzionante.

La prima base fattuale è anche semplice: un modello linguistico non “pensa”. Calcola. Il “coso” funziona trasformando un testo (la domanda o anche il processo di addestramento) in token (frammenti di testo) con la sua statistica associata , manipolato come numeri e, in risposta, riconvertito in parole.

Non c’è spirito, moralità o intuito, almeno per come lo attribuiamo a noi stessi.

C’è, invece, un’indubbia capacità di associazione semantica desunta dai dati usati nell’addestramento. Ci sono i parametri (qualche trilione – nessuno lo sa – per ChatGPT e simili), statistica e calcolo. Una matematica statistica anche molto complessa, sì, ma pur sempre numeri.

Gigantesche matrici numeriche. Essendo questo tipo di elaborazione particolarmente adatta a essere svolto in parallelo, Nvidia, che già produceva le schede per i videogiochi, ha avuto la fortuna che il calcolo semplice del processore GPU (Graphics Processing Unit) si adattasse perfettamente alle esigenze computazionali dell’IA generativa ed oggi vale in borsa oltre 4 trilioni di dollari.

La seconda base fattuale è che il cuore di un sistema di IA è l’addestramento. Il modello è come un bambino che ha imparato a parlare ma non ha ancora sviluppato una capacità di valutare i contesti.

Facendogli imparare quello che secondo il suo “insegnante” è giusto o sbagliato, gli si insegna a selezionare, tra le risposte possibili, quelle accettabili.

Non esiste IA senza i dati in quantità che l’hanno istruita (addestrata), consentendo alla rete neurale di registrare e tarare le sue statistiche interne.

Cambia il dataset, cambia la risposta del modello; cambia il modello (quelli opensource liberamente scaricabili sono circa 2 milioni) , cambiano le sue “risposte” (erroneamente antropoformizzate in “opinioni”).

Parlare di IA come di un’entità autonoma, scissa dal processo di addestramento, è come discutere di un violinista ignorando il fatto che abbia studiato dieci anni di conservatorio o sia un neofita.

La terza base fattuale, spesso ignorata con leggerezza, è la context window, la memoria a breve termine utilizzata nel dialogo con il modello.

E’ ciò che determina quanto il modello sintetizza statisticamente (”capisce” nell’allegoria antropomorfa) del problema che gli poni. Se la finestra è corta, il modello ragiona come chi ascolta a metà. Se è lunga, può davvero “seguire” un discorso complesso.

Il contesto è ossigeno: senza, il modello ansima. ChatGPT ha una finestra di 128.000 token, circa 100.000 parole.

Quarta base fattuale: il prompt conta, ma non è l’oracolo.

Dire che “basta il buon prompt” è come sostenere che una buona domanda trasformi un microfono in un cantante lirico. Il prompt è un comando, non un miracolo. Funziona se – e solo se – l’addestramento, il modello e il contesto supportano la richiesta. In altre parole: il prompt è l’innesco, non il motore.

Tutto questo funziona insieme, non a pezzi.

Prompt→contesto→numeri→modello→numeri→risposta: una catena che lavora bene solo se ogni anello è solido.

E se si tratta di una soluzione industriale, la catena lavora bene solo se, in aggiunta a tutto ciò, l’ingegneria tiene assieme il tutto in modo solido e verificabile.

Facile? Tutt’altro, perché la quinta base fattuale è che a questa tecnologia non si possono chiedere risposte esatte nel senso di programmati.

Dobbiamo abituarci all’idea di avere strumenti che mostrano capacità di analisi e ragionamento analoghe a quelle degli esseri umani, anche nei comportamenti, inclusi i difetti, e quindi imparare a gestirli.

Lo scoglio è qui, perché per governare i “cosi” c’è ancora bisogno di tutta quella competenza tecnico-scientifica e ingegneristica ma anche fusa con la cultura umanistica di cui, almeno in Italia, si parla poco e male.

Se si tiene conto delle sopra citate basi fattuali si può iniziare a ragionare sul come far funzionare questa tecnologia gestendo i rischi associati al lavorare con strumenti non deterministici e sul come fare a delegare ad essa decisioni.

Se invece si isola un frammento e ci costruisce sopra una teoria morale, giuridica o antropologica, si fa un favore alla disinformazione e si favorisce la creazione di una narrativa opaca, accattivante nella forma esteriore, ma inconsistente nella sostanza e, soprattutto, fine a sé stessa.

Perché questo parlare astrattamente crea cittadini spaventati da fantasmi e amministratori e professionisti che non usano lo strumento solo per ignoranza e non per ragionata prudenza.

Perché trasforma un utensile potentissimo — il coso — in un totem da venerare o in un mostro da temere. In entrambi i casi, il risultato è lo stesso: nessuno capisce nulla e tutti ci perdono.

Le singole base fattuali devono essere comprese e usate con una certa agilità da chiunque voglia contribuire alla crescita nazionale sospinta da questa potentissima tecnologia, che, peraltro, sta già maturando negli Stati Uniti e in Cina verso nuove vette di complessità ancora più elevate.

I chatbot non sono più solo LLM che colloquiano con l’utente in uno schema uomo-macchina, ma diventano sistemi multiagente, uomo che coordina tanti modelli che eseguono anche dialogando tra loro.

Qualcuno sta iniziando a sperimentare modelli che apprendono non da testi ma dal monitoraggio ambientale, da quello che noi chiamiamo esperienza sensoriale.

Insomma, tanti parlano e scrivono, ma provate a chiedere a costoro che cosa sia, con parole loro, una rete transformer.

Una risposta semplice sarebbe: una rete transformer è una rete neurale che aggiusta i suoi parametri (miliardi) con un meccanismo chiamato self-attention che assegna una probabilità a ogni elemento per indicare quanto sia rilevante rispetto agli altri, e che queste probabilità si affinano nell’addestramento con tantissimi dati.

Questa rivoluzione tecnologica antropologicamente culturale nacque nel 2017 con un articolo di ricercatori Google e accademici dal titolo emblematico: Attention is All You Need .

L’IA insomma va studiata e va capita, non demonizzata nè ignorandone la base tecnologica.

Serve precisione nei termini, lucidità nei concetti e onestà intellettuale. Tre cose rare, si dirà, ma indispensabili se si discute seriamente di IA generativa.

Perché, per usare in modo produttivo e utile i contenuti inediti che genera, è necessaria una forma di pensiero coerente, basata soprattutto sulla pratica sperimentale. Altrimenti è come pretendere di guidare un aereo senza sapere cosa significa la parola “alettone”.

(Estratto da Appunti)

Torna su