«L’intelligenza artificiale (IA) riprodurrà l’intelligenza umana. L’IA sconfiggerà le malattie. L’IA è la più grande e più importante invenzione nella storia dell’umanità. Lo avete sentito ripetere mille volte – ma probabilmente nulla di tutto ciò è vero».
Inizia così il numero speciale intitolato Hype Correction, con sottotitolo It’s time to reset expectations, pubblicato a dicembre 2025 dalla Rivista di Tecnologia del Massachussets Institute of Technology (MIT), una delle fonti più attendibili della ricerca scientifica e tecnologica degli Stati Uniti e del mondo.
Avevo anticipato ad aprile 2025 che la situazione si stava evolvendo in tal modo, consistente con quest’analisi di una pubblicazione così autorevole.
Ricordate certamente come il lancio di ChatGPT-3.5 (Generative Pre-trained Transformer) alla fine del 2022 abbia catalizzato l’attenzione generale, spingendo in tutto il mondo sia soggetti privati che pubblici a investire pesantemente nella tecnologia degli LLM (Large Language Model = modelli linguistici di grandi dimensioni) che è alla base dei sistemi di Intelligenza Artificiale generativa (IAgen). Molti pensavano che fosse la strada per arrivare a un’intelligenza artificiale di natura generale (AGI = Artificial General Intelligence), simile a quella dell’uomo e ancora più potente, più versatile e infaticabile, che ci avrebbe liberato dal lavoro e trovato la soluzione a tutti i problemi. Però, dopo tre anni di continue promesse, il lancio di ChatGPT-5, avvenuto ad agosto 2025 e percepito come un semplice miglioramento incrementale e non certo rivoluzionario, aveva iniziato a rendere evidente l’esagerazione che c’era in tale visione.
A ottobre 2025 avevo indicato i primi segnali che mostravano la correzione di rotta in atto.
Sintetizzando adesso ciò che è emerso da diversi rapporti e studi realizzati nel 2025, vi sono quattro importanti elementi che spiegano il perché della situazione attuale.
- I sistemi basati sui LLM non sono la strada per arrivare all’AGI. Questo è stato dichiarato, tra gli altri, da Yann LeCun, che è stato fino a novembre 2025 il capo scienziato di Meta, da lui abbandonata proprio perché in disaccordo sull’insistere con gli LLM. Ilya Sutskever, già scienziato capo e co-fondatore di OpenAI (la società che ha realizzato ChatGPT) ha osservato che le capacità degli LLM di generalizzare (cioè di estrarre princìpi generali) e quindi applicare a situazioni diverse quanto appreso durante il loro addestramento sono molto più limitate di quelle degli esseri umani. A gennaio 2026 la rivista The Atlantic (una delle riviste più antiche e prestigiose degli USA) ha pubblicato un articolo che dichiara «I modelli linguistici di grandi dimensioni non “apprendono” – copiano», basandosi su un lavoro svolto da ricercatori di Stanford e Yale, che sono riusciti a far produrre a quattro tra i più usati sistemi di IAgen quasi l’intero testo o porzioni vastissime di molti libri. Una rassegna scientifica svolta da ricercatori di Caltech e Stanford, pubblicata a gennaio 2026, ha evidenziato come anche i più recenti modelli, perfino quelli presentati come “capaci di ragionamento” abbiano in realtà grossi problemi nel ragionare in modo corretto.
- I sistemi di IAgen tendono ancora ad essere soggetti ad allucinazioni (cioè, inventare cose che non esistono) in una misura valutata tra il 15% e il 25%, ovvero un livello inaccettabile nella maggior parte delle azioni e interazioni importanti sia nella vita privata che produttiva, soprattutto perché tali sistemi non sono in grado di auto-correggersi con l’esperienza, diversamente da una persona. Qualunque normale lavoratore può sbagliare all’inizio, ma poi, normalmente, impara e migliora. Questo non accade e non può accadere con i sistemi di IAgen, proprio in ragione del fatto che sono basati su un apprendimento essenzialmente di natura statistica del linguaggio, cioè relativo alla frequenza con cui le parole appaiono più o meno vicine e non hanno capacità di ragionamento causale. Il numero speciale citato in apertura osserva come sia sorprendente che quest’approccio sia riuscito a realizzare sistemi artificiali che producono espressioni simili a quelle degli esseri umani quando stimolate con una qualunque domanda, ma il fatto che li percepiamo come intelligenti è una nostra proiezione. Si vedano in proposito i miei primi due articoli sul tema a marzo 2023 e ad aprile 2023.
- Per compiti normali i sistemi di IAgen possono essere più efficaci della persona media, ma poiché non raggiungono prestazioni da esperti in modo affidabile in contesti reali non riescono ad essere davvero efficaci per aumentare la produttività a livello aziendale. Su questo ci siamo illusi quando abbiamo visto che le successive versioni di tali sistemi erano in grado di superare gli esami per accedere a professioni complicate, ma poi si è capito che queste prestazioni erano dovute semplicemente all’aver “memorizzato” tutti i test disponibili per le relative discipline, più che a una reale comprensione dei loro concetti fondamentali. Nelle parole di Andrea Karpathy (inventore del popolarissimo termine vibe coding, su cui ritorneremo in un prossimo articolo) si tratta di strumenti «versatili ma di scarsa profondità e soggetti a errori», che quindi possono mettere la persona media in grado di fare cose per le quali sarebbe altrimenti costretta a ricorrere a un esperto (ad esempio, capire il significato di massima di un documento legale o medico), ma che non possono essere così facilmente integrati in un contesto produttivo.
- Certamente la maggioranza delle persone usa ormai quotidianamente i sistemi di IAgen, sia a livello personale che professionale, ma nella maggior parte dei casi lo fa gratuitamente, dal momento che ci sono almeno una decina di aziende diverse che li rendono disponibili. Il risultato è che, dopo 600 miliardi di dollari complessivamente investiti dal 2021 al 2025, non c’è ancora un modello di business e questo sta facendo riconsiderare agli investitori le loro scelte. Non a caso, nel 2025 si è cominciato a parlare di bolla, anche da parte di autorevoli leader del settore, come Sundar Pichai, il CEO di Alphabet (la casa madre di Google) a novembre di quell’anno. Daron Acemoglou, premio Nobel per l’economia nel 2024, ha analizzato l’influenza di tutto il settore dell’IA sull’economia USA fino al 2035 e ha concluso che solo circa il 5% dei compiti verrà eseguito in modo efficace dall’IA e il PIL aumenterà solo di un valore compreso tra 1,1 e 1,8%. Una caratteristica che ancora manca è la capacità, data una specifica situazione lavorativa, di fornire in modo affidabile informazioni dipendenti dal contesto per risolvere determinati problemi che sono sorti. Proprio a gennaio 2026, un articolo del Washington Post ha riportato che «i dati economici dimostrano che la tecnologia in gran parte non ha sostituito i lavoratori» e l’analisi Remote Labor Index, svolta congiuntamente dal Center for AI Safety e da Scale AI, ha confermato per il momento le previsioni di Acemoglou: infatti mediamente solo il 2,5% dei lavori proposti su una piattaforma che offre a lavoratori in proprio compiti a pagamento è stato completato con successo dai migliori sistemi di IAgen. In aggiunta, sempre a gennaio 2026, un’indagine della società Apollo Global Management (una delle più grandi al mondo nella gestione di investimenti) sui CFO (Chief Financial Officer = Direttore Finanziario), ha mostrato che la maggioranza di loro nel 2025 «non ha visto alcun impatto sulla produttività del lavoro, velocità nel prendere decisioni, soddisfazione della clientela, tempo speso su compiti ad alto valore aggiunto».
Tutto questo non vuol dire che gli strumenti di IAgen siano inutili, tutt’altro. Potenziano le nostre capacità in ambito cognitivo, purché scrutiniamo con attenzione ciò che producono. Sono utilissimi per svolgere compiti di routine in settori che padroneggiamo (così da poter correggere gli eventuali errori): un recentissimo esempio è l’impiego come valutatori del rigore scientifico di articoli di informatica teorica, che secondo l’81% degli autori ha contribuito ad aumentare chiarezza e leggibilità. Certamente continueranno a migliorare, anche se per avere salti di qualità importanti sarà necessario integrarli con sistemi basati su un approccio simbolico e non è per niente chiaro quando questo accadrà.
La strada quindi è ancora lunga. Voi che ne pensate?
(I lettori interessati potranno dialogare con l’autore, a partire dal terzo giorno successivo alla pubblicazione, su questo blog interdisciplinare.)




