skip to Main Content

ChatGpt

Siamo sicuri che ChatGpt rivoluzionerà il mondo e le nostre vite?

Nel giro di un paio di mesi ChatGpt è già diventata un fenomeno globale, ma tutte le preoccupazioni per un mondo in cui perderemo il lavoro e i nostri figli verranno resi ignoranti dall’AI, sembrano, per il momento, decisamente esagerate. Ecco perché. L'articolo di Peter Kruger per Agenda Digitale

 

Rilasciata da OpenAI alla fine dello scorso novembre, ChatGpt è già diventata un fenomeno globale, catturando le fantasie distopiche di tanti osservatori. Al di là del dibattito in corso tra scettici ed entusiasti, pochi, tuttavia, sembrano porsi la questione fondamentale: esiste un modello di business sostenibile per l’AI generativa?

Gli economics dell’AI generativa

Abituati alle storie trionfanti della digital economy, da Google a Facebook, spesso ci dimentichiamo che anche il successo di queste grandi piattaforme digitali è stato preceduto da molti tentativi fallimentari. Inoltre, gli economics di una piattaforma di AI generativa potrebbero essere molto diversi da quelli delle più tradizionali applicazioni digitali.

La domanda non è meramente retorica, poiché, in assenza di sostenibilità finanziaria, è difficile vedere come un servizio come ChatGpt possa avere un effetto così dirompente sul mondo in cui viviamo, figuriamoci addirittura le visioni più distopiche promosse da tanti “guru” digitali. Tanto più perché, in quanto a costi, poche tecnologie succhiano risorse computazionali quanto l’AI.

Ad esempio, le prime stime suggeriscono che il costo di ChatGpt sia veramente molto elevato. Una singola risposta della piattaforma costerebbe, in media, nell’ordine di 1 centesimo di euro, che sarebbe tra 1 e 2 ordini di grandezza maggiore del costo delle piattaforme digitali oggi più affermate. E stiamo solo parlando dei costi operativi (OPEX). Poi ci sarebbero gli investimenti (CAPEX) che, per l’AI, sono tra i più alti dell’intera industria digitale.

Sì, certo, i costi infrastrutturali dei servizi digitali tendono a ridursi col tempo (anche se i fasti della Legge di Moore non sono destinati a durare per sempre), ma la necessità di fornire un servizio più performante potrebbe far esplodere ulteriormente i costi sia a livello di OPEX che di CAPEX.

Il servizio attuale di ChatGpt, ad esempio, si basa sul training di contenuti online creati prima del 2022 e ciò ne limita l’attualità e la rilevanza (chiedete, ad esempio, a ChatGpt di commentarvi la guerra in Ucraina…). Tuttavia, un servizio che, per aggiornarsi, debba fare operazioni di retraining continui potrebbe avere un costo e porre anche sfide tecnologiche tutt’altro che banali.

Quali servizi a quale prezzo

E, fin qui, ci siamo limitati a parlare dei costi. La sostenibilità finanziaria presuppone l’esistenza di servizi capaci di giustificare, al tempo stesso, un prezzo adeguato e volumi sufficienti di clienti disposti a pagare tale pricing (due cose che tendono a non andare molto d’accordo l’una con l’altra).

Il fatto che i costi operativi di ChatGpt siano 1 o 2 ordini di grandezza maggiori dei costi delle maggiori piattaforme digitali, suggerisce che i ricavi, generati per ogni singola interazione, debbano essere da 10 a 100 volte superiori. Il tutto ciò a volumi di utilizzo paragonabili. Molto si è detto della possibilità di ChatGpt di rimpiazzare Google Search. Ma con questi economics, non si vede come ciò possa essere ottenuto con i modelli classici di ads finanziati dagli inserzionisti.

È possibile immaginare un modello che si basi sul pagamento di subscription? I social in questi giorni sono pieni di professionisti che dichiarano la disponibilità a pagare qualsiasi cifra per poter sostituire le loro reti di collaboratori con il servizio ChatGpt. Tuttavia, la retorica del “qualsiasi prezzo” finisce non appena tale prezzo supera il costo delle risorse che si vuole sostituire. Qual è la dimensione del mercato dei professionisti o delle aziende che potrebbero avere benefici dall’utilizzo di ChatGpt? Ed esiste un prezzo accettabile da tale mercato, capace di coprire gli enormi investimenti e costi operativi?

La risposta semplice: non lo sappiamo. E, anche se ci fosse, ricordiamo che ci sono voluti circa 10 anni dall’introduzione dei primi motori di ricerca nei primi anni ’90 all’arrivo di un modello che riuscisse ad adattarsi in maniera ottimale alla domanda di mercato (in gergo startupparo, il cosiddetto product-to-market fit). Oggi i cicli di sviluppo hanno accelerato drasticamente rispetto a 20-30 anni fa, ma trovare un modello di monetizzazione per l’AI generativa potrebbe rivelarsi una sfida molto più complicata.

Nessun modello di business sostenibile all’orizzonte

Ciò che possiamo dire con quasi certezza adesso è che ChatGpt ha già praticamente portato OpenAI alla canna del gas in poco più di un mese di operazioni. Ha fatto notizia la decisione di Microsoft, appena qualche giorno fa, di investire 10 miliardi di dollari in OpenAi valutando quest’ultima a 29 miliardi di dollari. Meno si è parlato del fatto che i fondatori hanno visto ridursi il loro controllo a circa il 2% della società. Segno di un’operazione fatta sull’orlo della disperazione, del tipo “prendere o lasciare”. Prova anche del fatto che, al momento, non si intraveda neppure lontanamente un modello di business sostenibile all’orizzonte.

Questo non vuol dire affatto che Microsoft abbia fatto un pessimo affare. Si tratta di un investimento ad alto rischio, ma il potenziale ritorno in caso di successo è incalcolabile. In questo senso, si potrebbe dire che Microsoft ha appena fatto l’investimento seed più costoso della storia ($10 miliardi) per un’azienda che non solo non ha ancora raggiunto il product-to-market fit, ma in cui anche il prodotto da solo ha ancora una lunga, ma davvero lunga strada da percorrere. E, per quanto già si prefiguri l’inserimento delle funzioni di ChatGpt all’interno dei prodotti Microsoft come Office, è davvero difficile vedere come ciò possa di per sé rappresentare un modello di business sostenibile.

Del resto, i rumors dall’industria suggeriscono che LaMDA, l’equivalente prodotto di AI generativa sviluppato internamente da Google, sia già più performante di ChatGpt. Gli stessi rumors sostengono che la ragione per cui Google non abbia ancora rilasciato questa applicazione siano legati al rischio reputazionale di affiancare al prodotto search, ormai riconosciuto come uno standard della industry, una funzionalità ancora poco affidabile ed attendibile. Il sospetto, tuttavia, è che i costi operativi di servire una funzionalità come LaMDA sulla scala dei volumi delle ricerche di Google (stiamo parlando di vari trilioni di ricerche annue) siano semplicemente ingestibili. Così come è probabile che il da poco annunciato “ChatGPT Professional”, un primo modello di monetizzazione a pagamento rilasciato da OpenAi negli stessi giorni dell’investimento Microsoft, possa avere più la funzione di introdurre una barriera di costo per contenere i costi riducendo i consumi.

Conclusioni

In conclusione, non c’è dubbio che l’AI generativa rappresenti un’innovazione epocale. E non vi è dubbio che l’AI, una disciplina realmente capace di generare verso valore solo negli ultimi 15 anni, sia ancora agli albori, riservandoci in futuro grandi innovazioni. Ma solo se torneranno i conti.

C’è ancora tanto sviluppo da fare sul prodotto, tanto sullo sviluppo di mercato. Nel frattempo, tutte le preoccupazioni per un mondo in cui perderemo il lavoro e i nostri figli verranno resi ignoranti dall’AI, sembrano, per il momento, decisamente esagerate.

Back To Top