Morgan Stanley segnala che i rack NVIDIA GB200 NVL72 raggiungono un margine di profitto del 77,6% rispetto al margine del -64% di AMD MI355X, con un costo totale di proprietà simile

Morgan Stanley segnala che i rack NVIDIA GB200 NVL72 raggiungono un margine di profitto del 77,6% rispetto al margine del -64% di AMD MI355X, con un costo totale di proprietà simile

Questo contenuto non costituisce consulenza in materia di investimenti. L’autore non detiene alcuna posizione nei titoli azionari qui menzionati.

Comprendere l’economia delle GPU e l’efficienza delle fabbriche di intelligenza artificiale

Nel contesto delle dinamiche fluttuanti dell’economia delle GPU, Morgan Stanley ha pubblicato un’analisi interessante che evidenzia l’eccezionale efficienza delle GPU GB200 NVL72 di NVIDIA nell’alimentazione di fabbriche di intelligenza artificiale su larga scala. Questa analisi è particolarmente rilevante per gli stakeholder coinvolti nelle decisioni di investimento o nei progressi tecnologici nelle infrastrutture di intelligenza artificiale.

Componenti chiave dei rack AI NVL72

Per chiarire, ogni rack NVL72 AI integra 72 GPU NVIDIA B200 e 36 CPU Grace, interconnesse tramite l’avanzata tecnologia NVLink 5$3.1 million, progettata per elevata larghezza di banda e bassa latenza. In particolare, il costo attuale di un rack server di questo tipo supera i 100 dollari, in netto contrasto con i circa $190, 000100 dollari di un rack H100.

Nonostante l’investimento iniziale più elevato, Morgan Stanley sostiene che la scelta dell’ultima soluzione rack-scale di NVIDIA offre vantaggi economici superiori rispetto alla vecchia generazione H100k, in linea con le attuali richieste del mercato.

Approfondimenti sulla redditività

Secondo i calcoli di Morgan Stanley, i sistemi GB200 NVL72 di NVIDIA superano i concorrenti in termini di redditività e generazione di fatturato. I pod TPU v6e sviluppati da Google si posizionano subito dietro le offerte di NVIDIA, come illustrato nel seguente grafico di redditività per un periodo teorico 100MW AI factory.

Grafico della redditività di una fabbrica di intelligenza artificiale da 100 MW per rack di server, che mostra il margine di profitto e il confronto dei costi.

Nello specifico, i rack GB200 NVL72 AI possono generare un impressionante margine di profitto del 77, 6%, mentre il TPU v6e di Google raggiunge un margine di quasi il 74, 9%.

Confronti dei costi e dinamiche di mercato

Sebbene i prezzi dei pod TPU v6e di Google non siano ancora disponibili al pubblico, si nota in genere che i costi di noleggio dei pod TPU sono circa dal 40 al 50 percento inferiori rispetto a quelli dei rack NVL72.

La posizione di AMD nel mercato

Il rapporto di Morgan Stanley indica inoltre una tendenza preoccupante per le fabbriche di intelligenza artificiale che utilizzano le tecnologie MI300 e MI355 di AMD, che dovrebbero registrare margini di profitto negativi rispettivamente pari a e.-28.2 percent-64 percent

Analisi del costo totale di proprietà

L’analisi presuppone che la creazione di un’infrastruttura 100MW AI data centerincluda costi di infrastruttura pari a circa $660 million, ammortizzati in un decennio. Le spese per la GPU possono variare notevolmente, da 0 $367 milliona 0 $2.273 billion, con un periodo di ammortamento di quattro anni. Inoltre, i costi operativi tengono conto dell’efficienza energetica dei sistemi di raffreddamento, adeguati alle tariffe elettriche globali.

In questo contesto, i sistemi GB200 NVL72 di NVIDIA presentano il costo totale di proprietà (TCO) più elevato, calcolato a $806.58 million, seguiti da vicino dalla piattaforma MI355X a $774.11 million.

Fonte e immagini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *