skip to Main Content

Banche Ai

Come impara l’intelligenza artificiale?

Dati e algoritmo lavorano insieme per "insegnare" all'intelligenza artificiale. Ecco come. L'articolo di Laura Turini estratto da Appunti.

Qualche giorno fa Appunti ha pubblicato un articolo sull’Intelligenza Artificiale (IA) in cui ho parlato dell’algoritmo e di quanto sia importante conoscerne il funzionamento in un contesto sempre più permeato dall’intelligenza artificiale.

Un lettore che ha evidenziato come i sistemi IA siano manovrabili molto più dai dati con cui sono addestrati (adesso vedremo che cosa significa) che dall’algoritmo.

Prendiamo spunto da questa riflessione per approfondire il tema che, a mio avviso, non è alternativo, ma è l’altra faccia della medaglia dello stesso problema.

Dati e algoritmo lavorano insieme per produrre un determinato risultato ed è dalla loro interferenza che viene generata una risposta, un’opera, un’azione.

Cosa fanno le nuove regole

Che l’algoritmo abbia un impatto importante sul prossimo futuro è dimostrato anche dal Regolamento (UE) 2022/2065 del 19 Ottobre 2022, noto come Digital Service Act (DSA), entrato in vigore lo scorso 16 Novembre 2022, che ha lo scopo di regolamentare e controllare l’operato delle piattaforme e dei motori di ricerca di grandi dimensioni, con più di 45 milioni di utenti attivi al mese.

Il DSA ha imposto alle piattaforme di indicare il numero dei propri utenti entro il 17 Febbraio 2023 e in base ai dati forniti, le VLOP (Very Large Online Platform) sono risutate essere Alibaba AliExpress, Amazon Store, Apple App Store, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando e i motori di ricerca Bing e Google Search.

Le VLOP dovranno adeguarsi alla normativa prevista dal Regolamento e rispettare una serie di obblighi piuttosto stringenti in materia di privacy, pubblicità, servizi di moderazione e controllo delle notizie false.

In caso di mancata ottemperanza sono previste sanzioni fino al 6 per cento del fatturato globale e, nei casi più gravi, la sospensione del servizio.

Il DSA ha previsto l’istituzione di un Centro europeo per la trasparenza algoritmica (ECAT), con sede a Siviglia, costituito da un gruppo di esperti per esaminare il funzionamento degli algoritmi usati da queste piattaforme.

Il controllo si estenderà anche alla verifica dell’impatto degli algoritmi sulla società nel medio e lungo termine.

L’algoritmo non è il codice del programma, è quello che viene prima. È lo schema logico funzionale, sono le fasi, il metodo, è in grossa sintesi il modo di ragionare del software.

Conoscere l’algoritmo significa avere consapevolezza delle connessioni e delle deduzioni, delle consequenzialità e quindi potere sapere perché, a partire da determinati dati di ingresso (input) si ottiene un risultato (out) che può essere una risposta o un’azione comandata dalla macchina.

L’intelligenza artificiale è però più complessa. Ci sono algoritmi che richiamano altri algoritmi, che a loro volta richiamano altri algoritmi, in una rete che ne complica la conoscibilità.

Così se si deve realizzare un sistema di guida automatica di un mezzo, si progetta l’algoritmo di base che però richiama un altro algoritmo che, ad esempio, è in grado di rilevare e segnalare la presenza di oggetti o persone sulla strada, un altro che calcola l’impatto della frenata in base alla velocità, un altro ancora che stabilisce la velocità di crociera, un altro che decide quando accendere i fari in base alla luce esterna e via dicendo.

Perché una macchina sia in grado di fare tutto questo ha, senz’altro, bisogno degli algoritmi ma ha anche bisogno di essere addestrata, ovvero istruita, e per questo ha bisogno di dati, tanti, tantissimi, che giocano un ruolo di primo piano.

Imparare a imparare

L’industria è a caccia di dati in ogni modo e forma e le applicazioni e i servizi (fintamente) gratuiti offerti in rete, in cui gli utenti si fiondano fornendo golose informazioni sulle loro abitudini, ne sono un esempio orami fin troppo noto.

I dati servono alla macchina per imparare a ragionare, così come a uno studente per apprendere nuovi concetti e nuove tecniche.

Nell’intelligenza artificiale, le reti neurali sono sempre più simili al cervello umano dal punto di vista delle modalità di apprendimento e sono capaci di apprendere dall’esperienza.

I sistemi sono “auto apprendenti”, nel senso che elaborando dati e dati, imparano da loro e diventano capaci di offrire risultati sempre più precisi. Sono questi i sistemi di “machine learning”, “macchine che imparano”, che poi diventano talmente bravi da potere produrre, sulla base di quanto hanno appreso, nuovi risultati e nuovi algoritmi. Sono questi i sistemi di “deep learning”.

È quindi evidente che, come in ogni processo di apprendimento umano, anche in quello tecnologico, i dati che la macchina elabora sono fondamentali perché l’intelligenza artificiale non è capace, di per sé, da fare valutazione etiche ma assorbe tutto ciò che le viene dato in pasto senza alcun discernimento critico.

In questo senso l’addestramento può essere sbagliato, per incapacità o superficialità, ma può anche sfociare in un ammaestramento o indottrinamento se, volutamente, si istruisce un sistema con dati faziosi.

Sul tema si è scritto molto. Uno dei testi più noti è Big Data di Viktor Mayer-Schonberger e Kenneth Cukier, ma qui mi piace ricordare Human in the loop. Decisioni umane e intelligenze artificiali di Paolo Benanti, che, con un linguaggio semplice tipico di chi ha capito un fenomeno, affronta temi etici legati all’intelligenza artificiale e pone come uno dei punti centrali del problema i dati di addestramento.

Nel libro viene citato un articolo, uscito sul New York Times il 16 Agosto 2019 che descrive le condizioni di lavoro di molti ragazzi indiani, pagati una miseria, per stare di fronte a un monitor a esaminare migliaia di immagini digitali di colonografie al fine di individuare al loro interno eventuali polipi e cerchiarli.

Questo lavoro è commissionato dall’industria per addestrare i sistemi di intelligenza artificiale a riconoscere, all’interno delle immagini digitali che raffigurano un colon, i polipi rispetto al resto, per cui rivestono un ruolo cruciale nel processo.

Chi esegue questo lavoro, però, non è un medico e non ha una formazione specifica, al contrario, riceve una formazione sommaria, guadagna una miseria e probabilmente ha turni di lavoro pesanti. Il vantaggio di questo processo è la riduzione dei costi, di cui già si potrebbe discutere per motivi etici, ma sulla qualità del rilevamento è lecito dubitare.

Visto che è sulla base dei dati raccolti che i sistemi di intelligenza artificiale imparano a fornire i loro risultati, che possono essere anche diagnosi mediche da cui dipende la vita umana, il problema è di assoluto rilievo.

Cose da sapere

I ricercatori ne sono consapevoli e per questo stanno insistendo perché, nello sviluppo dell’IA, venga offerta e conservata traccia dei dati sulla cui base i sistemi sono stati istruiti.

Si vuole imporre agli sviluppatori di fornire precisi Datasheets for datasets, ovvero documenti in cui per ogni gruppo di dati (datasets) viene indicato lo scopo della raccolta, le ragioni per cui sono state scelte alcune informazioni piuttosto che altre, le modalità di raccolta, chi l’ha finanziata, e nel caso in cui siano state interrogate delle persone, specificare che cosa è stato detto loro e sono state edotte sulle finalità dell’indagine.

Senza questa documentazione non saremo mai in grado di comprendere a pieno il valore e l’attendibilità dei risultati forniti da un sistema.

Al momento siamo solo sul piano delle raccomandazioni e dei buoni propositi perché, come sempre, l’industria corre molto più veloce della riflessione etica.

Il che non è un male assoluto, purché dopo una prima fase di entusiasmo ci si sieda a riflettere su cosa sia meglio fare, non tanto per rispondere ad una norma di legge, ma per il nostro futuro e i primi a porre questa riflessione sono proprio i tecnici.

Non è un caso Goeffrey Hinton si sia licenziato da Google, suscitando un grande clamore. Hinton, è considerato uno dei padri dell’intelligenza artificiale, vincitore insieme ai ricercatori Yoshua Bengio e Yann LeCun del Premio Turing 2018 per il suo lavoro sul deep learning, avendo sviluppato un sistema di apprendimento multidimensionale, chiamato “capsule network”, che avvicina il funzionamento della macchina a quello del cervello umano.

Goeffrey Hinton conosce quindi bene l’intelligenza artificiale e anche se in alcune interviste ha detto di essersi licenziato per raggiunti limiti di età, alla BBC e al New York Times ha dichiarato di essere molto preoccupato per l’evoluzione dell’intelligenza artificiale e che l’accelerazione è più rapida di quanto si sarebbe atteso. Il suo timore non è per la tecnica in sé ma per gli usi distorti che possono esserne fatti soprattutto da persone senza scrupoli.

Questo fatto si aggiunge alla lettera del Marzo 2023 con cui un gruppo di esponenti di rilievo nel settore dell’intelligenza artificiale, tra cui Elon Musk, fondatore di Tesla, hanno chiesto di sospendere le ricerche sull’intelligenza artificiale, a causa della sua pericolosità.

Pur manifestando preoccupazione Hinton, invece, non ritiene sia opportuno fermare lo sviluppo dell’intelligenza artificiale, perché vi sarebbero comunque paesi, come la Cina, in cui la ricerca proseguirebbe, per cui è meglio non perdere il passo, ma piuttosto riflettere e intervenire.

«Usare questa tecnologia è molto vantaggioso – ha dichiarato Hinton – ma è importante che il mondo investa seriamente e con urgenza nella sicurezza e nel controllo dell’IA»

Fermare il progresso non è possibile, ma non si può dimenticare l’uomo e i valori di cui è portatore. L’implementazione di questi sistemi complessi deve tenere conto dell’etica o, meglio, dell’algoretica come la chiama Benanti.

Un’etica nuova, pensata per gli algoritmi che parte dall’addestramento delle macchine, facendo della trasparenza e della riflessione ragionata su questo processo, la chiave di volta per un mondo robotizzato che non ci spaventi.

(Estratto da Appunti, la newsletter di Stefano Feltri. Ci si iscrive qui)

Back To Top