L’enfant prodige degli scacchi, nonché co-fondatore e amministratore delegato di Google DeepMind, Demis Hassabis ha affermato che la società ha compiuto una svolta “storica” nell’intelligenza artificiale, paragonabile alla vittoria del computer Deep Blue contro Garry Kasparov negli scacchi nel 1997 e alla vittoria di un’IA contro un campione umano di Go nel 2016.
Intanto, però, lancia un chiaro avvertimento: “Non lasciamola cadere nelle stesse trappole che hanno reso tossici i social media”.
UNA MEDAGLIA D’ORO PER GEMINI 2.5 E UNA NUOVA TAPPA VERSO L’AGI
Secondo quanto riportato dal Guardian, Hassabis ha riferito che una versione del modello di intelligenza artificiale Gemini 2.5 sviluppata da Google DeepMind ha risolto un problema reale particolarmente complesso durante una competizione internazionale di programmazione tenutasi in Azerbaigian, diventando il primo sistema di IA a vincere una medaglia d’oro in questo contesto.
Il problema consisteva nell’ottimizzare il flusso di un liquido attraverso una rete di condotti verso serbatoi interconnessi, compito che nessuna delle 139 squadre umane partecipanti – provenienti da università di Russia, Cina e Giappone – è riuscita a risolvere.
Nonostante due fallimenti su dodici prove totali, la performance complessiva ha posizionato l’IA al secondo posto nella classifica generale. Google ha definito il risultato un passo “storico verso l’AGI”, l’intelligenza artificiale generale, ovvero un sistema in grado di eseguire un’ampia gamma di compiti al pari di un essere umano.
Quoc Le, vicepresidente di Google DeepMind, ha paragonato l’evento alla vittoria di Deep Blue contro Kasparov nel 1997 e a quella di AlphaGo nel 2016.
REAZIONI ACCADEMICHE E DUBBI SULLA PORTATA DELLA SCOPERTA
Parlando prima che i dettagli venissero resi pubblici, Stuart Russell, professore di informatica all’Università della California – Berkeley, ha dichiarato al Guardian che le affermazioni di significato epocale sembrano esagerate. Secondo lui, il successo di Deep Blue non ha avuto un impatto sostanziale sull’IA applicata e il vero progresso si misurerà solo se questi sistemi produrranno codice affidabile e di alta qualità. Inoltre, ha aggiunto che “la pressione sulle aziende di IA affinché continuino a dichiarare svolte epocali è enorme”.
Michael Wooldridge, professore di intelligenza artificiale presso l’Università di Oxford, ha invece definito la prestazione “impressionante”, ma ha sollevato interrogativi sulla quantità di potenza computazionale utilizzata. Google ha confermato che le risorse impiegate erano superiori a quelle disponibili per gli utenti del servizio AI Ultra da 250 dollari al mese, senza però fornire dati precisi.
Bill Poucher, direttore esecutivo dell’International Collegiate Programming Contest (ICPC), ha descritto il risultato come un momento chiave nella definizione degli strumenti e degli standard accademici necessari per la prossima generazione.
L’INVITO DI HASSABIS A NON RIPETERE GLI ERRORI DEI SOCIAL MEDIA
Durante l’Athens Innovation Summit, Hassabis ha tuttavia lanciato un monito riguardo ai potenziali rischi dell’adozione incontrollata dell’intelligenza artificiale. Secondo il Ceo di DeepMind, l’IA – se verrà sviluppata con l’unico obiettivo di massimizzare l’engagement degli utenti – potrebbe infatti cadere nelle stesse trappole dei social media. Ha citato in particolare i pericoli legati alla distrazione, all’impatto sulla salute mentale e alla manipolazione delle preferenze individuali.
Hassabis ha poi criticato il mantra della Silicon Valley “muoviti in fretta e rompi tutto”, sottolineando la necessità di una metodologia più scientifica e prudente. Ha affermato che l’IA deve essere progettata come uno strumento al servizio delle persone e non come un mezzo per condizionarne i comportamenti. Inoltre, secondo il dirigente, è essenziale trovare un equilibrio tra audacia nell’innovazione e responsabilità nella gestione dei rischi, una tensione che, a suo avviso, proseguirà fino all’arrivo dell’AGI.
ANCHE L’IA RIPRODUCE LE DINAMICHE TOSSICHE DEI SOCIAL
Secondo Business Insider, uno studio condotto dall’Università di Amsterdam ha mostrato che 500 chatbot inseriti in un social network simulato tendevano a formare gruppi chiusi, amplificare voci estreme e concentrare la conversazione in poche entità dominanti, pur in assenza di pubblicità o algoritmi di raccomandazione. Le sei strategie testate dai ricercatori per interrompere questo schema – tra cui feed cronologici e la rimozione dei conteggi dei follower – si sono rivelate inefficaci, suggerendo che il problema sia più profondo degli algoritmi stessi.
Nel frattempo, l’intelligenza artificiale si sta integrando sempre più nei social media. L’uso di influencer virtuali e volti sintetici sta diventando comune, mentre alcuni creator esprimono preoccupazioni per la possibilità che le loro sembianze vengano concesse in licenza a tempo indeterminato. Sam Altman, Ceo di OpenAI, ha dichiarato che i feed social potrebbero risultare più dannosi per i giovani dell’IA stessa, mentre Alexis Ohanian, cofondatore di Reddit, ha sostenuto che l’IA potrebbe restituire agli utenti un maggiore controllo sui contenuti.
EDUCAZIONE E COMPETENZE NELL’ERA DELL’IA
Durante un evento ad Atene, Hassabis ha anche affrontato il tema dell’istruzione e della preparazione alle trasformazioni future. Ha affermato che la competenza più cruciale per le nuove generazioni sarà “imparare a imparare”, data la rapidità con cui l’IA sta cambiando il mondo del lavoro e l’ambiente accademico. Secondo lui, l’intelligenza artificiale generale potrebbe arrivare entro dieci anni, portando con sé una fase di “abbondanza radicale”, ma anche nuovi rischi.
Hassabis ha messo in evidenza il valore delle “meta-competenze”, ovvero la capacità di adattarsi, comprendere e apprendere continuamente, da affiancare alle discipline classiche. Ha osservato che il futuro sarà caratterizzato da un costante aggiornamento delle proprie conoscenze lungo l’intero percorso professionale.
Il Ceo di DeepMind, tra l’altro, l’anno scorso ha ricevuto il Premio Nobel per la Chimica, grazie allo sviluppo di un sistema di IA capace di prevedere con precisione il ripiegamento delle proteine, un risultato di rilievo per la medicina e la scoperta di nuovi farmaci.