Skip to content

gemini

Gemini di Google è il miglior modello linguistico di intelligenza artificiale?

Né Gpt di OpenAi né DeepSeek riescono a eguagliare le performance di Gemini 2.5 Pro di Google. L'analisi di Peter Kruger.

Qual è il miglior LLM in circolazione e cosa ci dice del futuro a breve dell’AI? A poco più di 3 settimane dal rilascio, per me ci sono pochi dubbi. Il miglior modello è Gemini 2.5 Pro: un vero monstre.

Non c’è nessun OpenAI GPT 4.5 (o 4.1 ora) o Deepseek R1 che gli tenga dietro in praticamente qualsiasi tipo di task. Perfino nel coding (soprattutto se abbinato ad un coding agent come Cursor) si mangia a colazione Anthropic Claude Sonnet 3.7 che solo, fino a qualche settimana fa, era venerato dai programmatori alla stregua d’una divinità. Il tutto ad una velocità non dissimile da un ordinario modello “non-thinking” (sì, Gemini 2.5 Pro è nativamente “thinking”). L’unica pecca: i limiti sui rate d’utilizzo (non ve ne accorgete se ne fate un uso ordinario da consumer).

E qui veniamo alle considerazioni sul futuro (a breve, anzi brevissimo – qui oltre i 6 mesi non si vede nulla). Proprio il fatto che i rates di utilizzo siano molto bassi, conferma che Google sta attivamente perseguendo una policy commerciale di dumping massivo. Questo è un modello che costa. E, anche se il team di DeepMind (il team AI di Google) ha sicuramente dei segreti ben custoditi per garantire forti performance ed efficienza, è chiaro che la bolletta, che paga Google per elargire quasi a gratis tutta questa bontà, costa caro assai.

In altre parole, Google (Alphabet), forte della leadership tecnologica nel settore, ma penalizzata dal ritardo nella commercializzazione iniziale, le sta ora provando tutte per recuperare quote di mercato perse (soprattutto a spese di OpenAI).

Una decina di giorni fa è anche uscita la notizia (non smentita) che Google avrebbe imposto ai ricercatori in DeepMind un embargo di almeno 6 mesi su ogni pubblicazione che tocchi i vantaggi competitivi di Gemini. Detto in altro modo, è chiaro che ora Google dispone di un vantaggio tecnologico significativo sull’intero stack AI, dall’infrastruttura ai modelli (sull’integrazione con i servizi Google, invece, c’è ancora tanto da fare).

Ci vorrà del tempo perché gli altri player (cinesi inclusi), possano recuperare questo gap. D’altro canto, proprio i cinesi (DeepSeek e Alibaba) hanno platealmente preso la leadership della comoditizzazione open-source, rilasciando non solo modelli e pesi, ma anche interi blocchi dello stack tecnologico.

In questo quadro, presi in una morsa tra le performance monstre di Gemini e la comoditizzazione cinese, lo spazio per approcci intermedi si riduce enormemente e, francamente, a meno di sorprese (inclusi regali regolamentari da Trump), non vedo come OpenAi, Anthropic o xAI, possano sperare di non allinearsi rapidamente all’ondata open-source. Gli unici a godere in maniera certa sono i produttori di hardware (nVIDIA in primis) e i gestori d’infrastruttura (che spiega l’ossessione di Sam Altman per il progetto StarGate).

Paradossale la sorte di META, campione opensource della prima ora. Il rilascio settimana scorsa a grande fanfara di Llama 4 è stato un clamoroso fiasco (performance incredibilmente basse, come anche confermato dai nostri runs interni con AutoBench). Insomma, proprio quando avrebbe da raccogliere i frutti della propria strategia, con tutto il mondo AI che va opensource (con l’importante eccezione di Gemini), Zuck rischia di essere tagliato fuori (a meno di sorprese).

Torna su