
Questo contenuto non costituisce consulenza in materia di investimenti. L’autore non detiene alcuna posizione nei titoli azionari qui menzionati.
Comprendere l’economia delle GPU e l’efficienza delle fabbriche di intelligenza artificiale
Nel contesto delle dinamiche fluttuanti dell’economia delle GPU, Morgan Stanley ha pubblicato un’analisi interessante che evidenzia l’eccezionale efficienza delle GPU GB200 NVL72 di NVIDIA nell’alimentazione di fabbriche di intelligenza artificiale su larga scala. Questa analisi è particolarmente rilevante per gli stakeholder coinvolti nelle decisioni di investimento o nei progressi tecnologici nelle infrastrutture di intelligenza artificiale.
Componenti chiave dei rack AI NVL72
Per chiarire, ogni rack NVL72 AI integra 72 GPU NVIDIA B200 e 36 CPU Grace, interconnesse tramite l’avanzata tecnologia NVLink 5$3.1 million
, progettata per elevata larghezza di banda e bassa latenza. In particolare, il costo attuale di un rack server di questo tipo supera i 100 dollari, in netto contrasto con i circa $190, 000
100 dollari di un rack H100.
Nonostante l’investimento iniziale più elevato, Morgan Stanley sostiene che la scelta dell’ultima soluzione rack-scale di NVIDIA offre vantaggi economici superiori rispetto alla vecchia generazione H100k, in linea con le attuali richieste del mercato.
Approfondimenti sulla redditività
Secondo i calcoli di Morgan Stanley, i sistemi GB200 NVL72 di NVIDIA superano i concorrenti in termini di redditività e generazione di fatturato. I pod TPU v6e sviluppati da Google si posizionano subito dietro le offerte di NVIDIA, come illustrato nel seguente grafico di redditività per un periodo teorico 100MW AI factory
.

Nello specifico, i rack GB200 NVL72 AI possono generare un impressionante margine di profitto del 77, 6%, mentre il TPU v6e di Google raggiunge un margine di quasi il 74, 9%.
Confronti dei costi e dinamiche di mercato
Sebbene i prezzi dei pod TPU v6e di Google non siano ancora disponibili al pubblico, si nota in genere che i costi di noleggio dei pod TPU sono circa dal 40 al 50 percento inferiori rispetto a quelli dei rack NVL72.
La posizione di AMD nel mercato
Il rapporto di Morgan Stanley indica inoltre una tendenza preoccupante per le fabbriche di intelligenza artificiale che utilizzano le tecnologie MI300 e MI355 di AMD, che dovrebbero registrare margini di profitto negativi rispettivamente pari a e.-28.2 percent
-64 percent
Analisi del costo totale di proprietà
L’analisi presuppone che la creazione di un’infrastruttura 100MW AI data center
includa costi di infrastruttura pari a circa $660 million
, ammortizzati in un decennio. Le spese per la GPU possono variare notevolmente, da 0 $367 million
a 0 $2.273 billion
, con un periodo di ammortamento di quattro anni. Inoltre, i costi operativi tengono conto dell’efficienza energetica dei sistemi di raffreddamento, adeguati alle tariffe elettriche globali.
In questo contesto, i sistemi GB200 NVL72 di NVIDIA presentano il costo totale di proprietà (TCO) più elevato, calcolato a $806.58 million
, seguiti da vicino dalla piattaforma MI355X a $774.11 million
.
Lascia un commento