skip to Main Content

Google Apple

Perché l’intelligenza artificiale non è così intelligente come pensiamo

Considerazioni a margine di un'interessante intervista del quotidiano La Repubblica al matematico italiano, Alessio Figalli. Il commento di Michele Guerriero

Un’interessante intervista del quotidiano La Repubblica al matematico italiano, Alessio Figalli – vincitore della medaglia Fields, il Nobel della matematica, nel 2018 – che insegna al Politecnico di Zurigo apre spiragli molto interessanti sul rapporto tra matematica e Intelligenza Artificiale per il futuro. I rilevanti timori e le grandi opportunità, che offre lo sviluppo di questa grande area di ricerca – che impegna matematici, informatici, antropologi, scienziati e filosofi – interroga tutti sulla nostra vita futura e su come cambierà il nostro lavoro, il nostro modo di curarci, la nostra vita.
Secondo Figalli, la IA, nel campo matematico, potrà sicuramente sostituirsi ad alcune attività umane che vedono impegnati i ricercatori, gli studenti e i docenti. Attività quali la correzione di un compito d’esame oppure trovare soluzioni più velocemente rispetto ai tempi umani, ma non scoprire nuove cose, a detta di Figalli. Il problema esiste per il matematico italiano che insegna in Svizzera, e per questo bisognerà spiegare ai nostri ragazzi – lui sostiene – la bellezza della fatica nel trovare soluzioni. D’altronde, il rischio non esiste solo per l’applicazione della IA nell’ambito della matematica nella ricerca veloce di soluzioni a problemi, ma anche per materie come il latino o il greco, da sempre, dal punto di vista del metodo di lavoro, assimilabili alla matematica (alla faccia di chi sosteneva che il vecchio Liceo Classico era povero di attività matematica!).
Ma il passaggio più interessante dell’intervista a Figalli è nella definizione, alla luce dei fatti, dell’attività che porta avanti l’Intelligenza Artificiale. Dietro l’Intelligenza Artificiale ci sono modelli costruiti su reti neurali ovvero “modelli artificiali del cervello”. La matematica decide quanti strati si possono costruire per uno specifico modello, quanto devono essere forti le connessioni di queste reti, modellate su quelle del cervello. Ma perché le reti neurali funzionano non è dato sapere, sostiene Figalli. Il funzionamento delle reti neurali è un fatto empirico: una rete neurale funziona, perché lo sperimentiamo nei fatti. E continuiamo a non sapere il perchè.
Il discorso di un matematico come Figalli richiama due elementi interessanti che ci mostrano come la IA non potrà sostituire con facilità l’attività umana. Il primo è relativo al fatto che l’intelligenza artificiale non è intelligente, per definizione, ma fonda la sua efficacia sull’allenamento di modelli. Il secondo elemento, molto interessante dal mio punto di vista, è rappresentato dal tratto caratteristico dell’intelligenza umana che è l’intuizione e l’indipendenza nel trovare soluzioni. L’intuizione è da sempre uno dei modelli della conoscenza umana, che non si trova in elaborazioni artificiali. Non si trova nel calcolatore, nella Macchina di Turing che è stato il primo modello di intelligenza, costruito sull’architettura della mente. L’intuizione non si trova nei robot e nelle attività legate all’intelligenza artificiale. Le macchine sono carenti di intuizioni. Le intuizioni sono propriamente umane e il fatto che l’uomo abbia coscienza di un’esperienza – sfruttando la definizione che ha dato David Chalmers, filosofo australiano impegnato negli studi sulla coscienza – rappresenta un’intuizione problematica (problem intuitions). Le macchine o l’IA questo problema, per loro (s)fortuna, almeno non lo hanno.
Back To Top