Amazon Web Services, la divisione di cloud computing del gruppo statunitense dell’e-commerce, ha lanciato la sfida a Nvidia, l’azienda di processori per l’intelligenza artificiale più importante al mondo, di cui comunque è una cliente.
IL PROGRAMMA DI AMAZON WEB SERVICES
Martedì, infatti, Amazon Web Services ha annunciato che metterà a disposizione gratuitamente la potenza di calcolo dei propri data center in cloud ai ricercatori che vorranno utilizzare i suoi microchip per l’addestramento dei modelli di intelligenza artificiale, chiamati Trainium.
La società ha destinato 40.000 chip Trainium di prima generazione al programma, al quale parteciperanno i ricercatori delle università di Carnegie Mellon e della California-Berkeley.
LA STRATEGIA CONTRO NVIDIA
Nel tentativo di rosicchiare la quota di mercato di Nvidia, Amazon sta adottando un approccio differente. Gli sviluppatori di intelligenza artificiale, infatti, non programmano direttamente i microchip di Nvidia ma utilizzano il software della società, chiamato Cuda. Amazon Web Services intende fare il contrario: vuole cioè rendere disponibili le informazioni sull’architettura dei chip – la loro parte “più cruciale”, per semplificare, il loro linguaggio macchina – in modo che i clienti possano programmarli direttamente.
I NUOVI MICROCHIP
Parallelamente a tutto questo, Amazon sta anche lavorando allo sviluppo di propri microchip avanzati in modo da ridurre la dipendenza da Nvidia e contenere i costi: un singolo chip Grace Blackwell (la nuova generazione) della società di Jensen Huang ha infatti un prezzo stimato di 70.000 dollari.
A occuparsi della realizzazione del Trainium 2 è Annapurna Labs, una startup che Amazon ha acquisito nel 2015 per 350 milioni di dollari. Il Financial Times ha scritto che il nuovo chip sta già venendo testato da Anthropic (una delle concorrenti principali di OpenAi) e dalla compagnia di telecomunicazioni tedesca Deutsche Telekom.
Dave Brown di Amazon Web Services ha spiegato che il chip Inferentia, un altro modello sviluppato dalla società appositamente per le applicazioni di intelligenza artificiale (l’inferenza è il processo seguito da un sistema per prendere decisioni o fare previsioni sulla base dei nuovi dati ricevuti), permette un risparmio del 40 per cento. Considerata l’entità delle spese per l’intelligenza artificiale e il machine learning, sulle decine di milioni di dollari, secondo Brown un risparmio del genere può fare la differenza.
L’INTEGRAZIONE VERTICALE
Non solo Amazon, ma anche tutte le altre aziende tecnologiche come Microsoft, Google, Apple e OpenAi, stanno lavorando alla produzione di microchip propri, pur continuando a rifornirsi da Nvidia. L’integrazione verticale – dai semiconduttori ai software proprietari all’infrastruttura, fino ai servizi cloud – è considerata uno strumento utile a ridurre i costi, a garantire margini più elevati e ad assicurare un maggiore controllo sulla filiera; il difficile, però, sarà raggiungere la scala.
L’analista Dan Hutcheson ha spiegato al Financial Times che il “grande vantaggio di Amazon Web Services è che i suoi chip utilizzano meno energia e i suoi centri dati possono forse essere un po’ più efficienti”, facendo scendere le spese di gestione. Facendo da sé, inoltre, Amazon potrà sviluppare microchip adatti alle sue necessità specifiche, mentre le unità di elaborazione grafica di Nvidia, per quanto potenti, sono adatte un po’ a tutti gli usi.
Amazon e Annapurna sono comunque ben lontane dallo scalfire la quota di Nvidia nel mercato dei microchip per i centri dati e l’intelligenza artificiale, che si aggira intorno al 90 per cento. Non è chiara, inoltre, quale sia la differenza di prestazioni tra i chip di Amazon e quelli di Nvidia: la società garantisce però un miglioramento di quattro volte della performance dei Trainium 2 rispetto al modello precedente.