Skip to content

amazon

Tutte le mosse di Amazon per competere con i microchip di Nvidia

Per ridurre la dipendenza da Nvidia e risparmiare sulle spese, Amazon sta lavorando allo sviluppo di un proprio microchip per l'intelligenza artificiale. Non è un'operazione facile, ma la società si è già dimostrata capace di sostituire tanti hardware nei centri dati.

Amazon sta lavorando allo sviluppo di un microchip avanzato in grado di alimentare i sistemi di intelligenza artificiale con l’intenzione di ridurre la dipendenza da Nvidia, l’azienda più importante – per capacità tecnologiche e per capitalizzazione di mercato: oltre 3000 miliardi di dollari – del settore.

I processori di Nvidia non sono soltanto costosi, dalle decina di migliaia di dollari l’uno, ma anche difficili da reperire: la richiesta è fortissima e si pensa infatti che per un certo periodo di tempo l’offerta della nuova generazione di dispositivi non basterà a soddisfare la domanda. Tutti i clienti più importanti di Nvidia – ovvero le grandi compagnie tecnologiche statunitensi: Microsoft, Alphabet e Amazon, appunto – stanno allora puntando ad abbassare il loro grado di dipendenza.

AMAZON E LA RICERCA DELL’AUTOSUFFICIENZA NELL’HARDWARE

Rispetto alle altre Big Tech, Amazon pare essere quella più avanti nello sviluppo interno di semiconduttori. Anche perché sono già diversi anni – dopo aver “inventato il business del cloud computing” quindici anni fa, ha scritto Bloomberg – che la società si dedica a rendersi autonoma sulle apparecchiature fisiche dei centri dati, andando progressivamente a sostituire i server e gli switch acquistati dai fornitori con le proprie versioni.

Realizzare microchip per l’intelligenza artificiale che siano potenti e affidabili, però, è molto difficile; e forse ancora più difficile è programmare i software che permettono ai clienti di utilizzare questi chip per i loro scopi. La forza di Nvidia, infatti, non sta solo nell’hardware ma anche nella sua suite informatica che permette ai chip “di gestire senza problemi qualsiasi attività di intelligenza artificiale”, come spiega Bloomberg. Il software di Amazon, Neuron Sdk, non ha raggiunto livelli paragonabili.

Disporre di microchip propri dovrebbe garantire ad Amazon non soltanto un risparmio economico ma anche un’efficienza operativa maggiore, visto che questi dispositivi verranno adattati alle necessità specifiche di Amazon Web Services, la divisione dedicata al cloud.

COSA SAPPIAMO DEL MICROCHIP TRAINIUM2

Il primo microchip per l’intelligenza artificiale sviluppato da Amazon è Inferentia (da “inferenza”, il processo seguito da un sistema per prendere decisioni o fare previsioni sulla base dei nuovi dati ricevuti), utilizzato dapprima nei centri dati e poi per l’avanzamento dell’assistente vocale Alexa. A Inferentia è succeduto Trainium, pensato appositamente per l’addestramento dei modelli di machine learning. Il terzo prodotto si chiama Trainium2: a occuparsi della sua realizzazione è Annapurna Labs, una startup acquisita nel 2015 per 350 milioni di dollari.

Secondo Bloomberg, Trainium2 rappresenta il microchip della svolta per Amazon: “o il terzo tentativo venderà in volume sufficienti a far fruttare l’investimento”, infatti, “oppure farà fiasco e l’azienda troverà una nuova strada”.

Il primo Trainium era formato da otto chip disposti l’uno accanto all’altro in una scatola d’acciaio profonda e piena di cavi che lasciava tanto spazio alla dissipazione del calore. Trainium2 è all’apparenza più semplice: la maggior parte dei cavi nella scatola sono stati eliminati e sostituiti con dei circuiti stampati, e il numero stesso dei chip è stato ridotto a due in modo da semplificare le attività di manutenzione.

A detta di Amazon, Trainium2 offre prestazioni quattro volte superiori e una memoria tre volte superiore rispetto al predecessore.

CORSA CONTRO IL TEMPO

Le consegne dei Trainium2 nei centri dati sono già iniziate e prossimamente partiranno anche quelle destinati agli hub principali di Amazon. Se il microchip si rivelerà in grado di gestire le operazioni di intelligenza artificiale “interne” a all’azienda, lasciando liberi i processori di Nvidia per compiti più specifici, verrà probabilmente considerato un successo.

L’obiettivo di Amazon è commercializzare un nuovo chip ogni diciotto mesi circa; la tempistica impostasi da Nvidia – che, al di là delle possibili ripercussioni sulla produzione dei dispositivi, mette una forte pressione su tutti i soggetti che partecipano al mercato – è ancora più breve: un nuovo chip ogni anno.

LE MOSSE DI GOOGLE E AMAZON

Non solo Amazon, si diceva, ma anche Google e Microsoft hanno intrapreso la corsa al microchip per l’intelligenza artificiale.

Google ha iniziato a lavorare allo sviluppo di un tale dispositivo una decina d’anni fa: l’ultima versione sarà disponibile l’anno prossimo. Lo scorso aprile la società ha presentato la sua prima unità di elaborazione centrale (Cpu, in gergo), simile al processore Graviton di Amazon.

Microsoft è invece l’ultima arrivata in questa corsa tecnologica, avendo annunciato un acceleratore per l’intelligenza artificiale (chiamato Maia) e una Cpu (chiamata Cobalt) soltanto alla fine del 2023.

Torna su