Skip to content

anthropic

Anthropic contro tutti: la nuova corsa ai modelli low cost dell’intelligenza artificiale

Google, Anthropic e OpenAI si sfidano sul prezzo e sull’efficienza. Ma la rivoluzione nascosta riguarda le GPU e la fame di energia dei data center. L'analisi di Gianmarco Gabrieli.

C’è una nuova guerra fredda nell’intelligenza artificiale. Non si combatte più a colpi di parametri o di modelli sempre più grandi, ma di efficienza, costo e velocità.

La roadmap di Anthropic, la società fondata dagli ex ricercatori di OpenAI, pone un obiettivo impressionante: raggiungere 25 miliardi di dollari di ricavi annuali ricorrenti entro il 2026.

La notizia arriva insieme al rilascio di Claude Haiku 4.5, un modello che promette prestazioni da “frontier model” a un terzo del costo e con il doppio della velocità.

Il nuovo paradigma: potenza a basso costo

La strategia di Anthropic è chiara: rendere l’intelligenza artificiale di livello avanzato accessibile non solo alle grandi imprese, ma anche a startup, team indipendenti e singoli sviluppatori.

Claude Haiku 4.5, definito dalla stessa azienda “il più rapido e sicuro mai costruito”, offre le capacità di programmazione e ricerca di modelli di fascia alta, ma con costi di inferenza molto più bassi.

Reuters ha confermato che l’azienda è in trattative con nuovi investitori, nonostante abbia raccolto 13 miliardi di dollari solo lo scorso mese, segno che il mercato crede nella sua traiettoria.

Google rilancia con Veo 3.1: la sfida dei video generativi

A rispondere è stata Google, che nello stesso giorno ha lanciato Veo 3.1, la nuova versione del suo motore di generazione video.

La piattaforma introduce funzioni che fino a pochi mesi fa sembravano appannaggio solo di OpenAI Sora:

  • coerenza dei personaggi tra le scene,
  • video più lunghi di 60 secondi,
  • modifica post-generazione con gestione automatica di luci e ombre.

Veo 3.1 è già disponibile su Google AI Studio e Gemini API, e ha generato oltre 275 milioni di video in pochi mesi.

Con queste mosse, Google punta a riportare attenzione e traffico su YouTube, che proprio nei giorni del lancio ha subito un blackout mondiale. Coincidenza o mossa di marketing, poco importa: la partita si gioca su chi riuscirà a rendere davvero commerciale la creatività artificiale.

OpenAI sotto pressione

Nel frattempo, OpenAI si trova in una posizione più delicata.

L’azienda di Sam Altman, che ha impegnato oltre un trilione di dollari di investimenti nei prossimi cinque anni, continua a dipendere per circa il 70% dei ricavi dagli abbonati da 20 dollari al mese di ChatGPT Plus.

Il modello di business è solido ma rischia di diventare rigido in un mercato che si sta spostando verso API più flessibili, veloci e a basso costo.

La risposta di OpenAI sarà probabilmente un rilascio anticipato di Sora 3 o di un nuovo GPT-5.5, ma il vantaggio competitivo di Anthropic e Google è ormai evidente: rendere la frontiera accessibile.

L’effetto collaterale: il terremoto nel mercato delle GPU

Dietro questa guerra dei prezzi si nasconde un impatto strutturale sul mercato dell’hardware, in particolare delle GPU.

I modelli low cost non sono solo più economici per gli utenti: consumano meno potenza di calcolo, richiedono meno schede grafiche di fascia alta, e sfruttano meglio la parallelizzazione distribuita.

In termini pratici, significa meno H100 e più L40S, meno dipendenza da NVIDIA e più spazio per soluzioni alternative come AMD, Google TPU, Amazon Inferentia o Microsoft Maia.

In passato la crescita dei modelli LLM era proporzionale alla domanda di GPU: più grande il modello, più chip servivano per l’inferenza.

Oggi il trend si sta invertendo. I modelli “light” come Haiku, Mistral Small o Llama Guard adottano strategie di quantizzazione e distillazione che riducono del 60–70% il fabbisogno di calcolo.

Il risultato è un nuovo equilibrio economico: meno domanda unitaria di GPU, ma diffusione molto più ampia dell’intelligenza artificiale.

Non vince più chi ha più chip, ma chi li usa meglio.

Per NVIDIA è una sfida doppia: i ricavi dai data center restano alti, ma i margini potrebbero ridursi man mano che cresce la concorrenza di chip dedicati o di acceleratori personalizzati.

Il paradigma cambia da abbondanza di potenza a efficienza di calcolo: dalla forza bruta alla leggerezza intelligente.

La corsa tra Anthropic, Google e OpenAI segna l’inizio di una nuova era dell’intelligenza artificiale, in cui l’innovazione non si misura più in grandezza ma in efficienza.

L’effetto domino colpirà anche l’economia reale: dai chip alle bollette energetiche, dal lavoro cognitivo alla ricerca scientifica.

Se fino a ieri l’AI era una questione di potenza, oggi diventa una questione di misura.

E forse, come sempre accade nelle rivoluzioni tecnologiche, vincerà chi saprà fare di più con meno.

Torna su