
Le GPU Blackwell di NVIDIA si sono posizionate all’avanguardia nelle prestazioni di inferenza dell’intelligenza artificiale, portando a margini di profitto significativamente più elevati per le aziende che sfruttano questa tecnologia rispetto ai loro concorrenti.
Software di intelligenza artificiale completo e ottimizzazioni di NVIDIA: un vantaggio competitivo rispetto ad AMD
Una recente analisi di Morgan Stanley Research offre un confronto approfondito dei margini di profitto e dei costi operativi associati ai carichi di lavoro di inferenza AI tra diversi fornitori tecnologici. I risultati rivelano che le aziende che operano come “fabbriche” di inferenza AI stanno ottenendo margini di profitto superiori al 50%, con NVIDIA che emerge come indiscussa leader.

Lo studio ha valutato una serie di fabbriche di intelligenza artificiale, in particolare quelle che richiedono 100 MW di potenza, che incorporano rack server di diversi importanti attori del settore, tra cui NVIDIA, Google, AMD, AWS e Huawei. Tra queste, spicca la piattaforma GPU GB200 NVL72 “Blackwell” di NVIDIA, che ha raggiunto un impressionante margine di profitto del 77, 6% e un utile stimato di circa 3, 5 miliardi di dollari.
Il pod TPU v6e di Google segue a ruota, con un margine di profitto del 74, 9%, mentre Trn2 Ultraserver di AWS si assicura la terza posizione con un margine di profitto del 62, 5%.Altre soluzioni presentano margini di profitto intorno al 40-50%, ma AMD ha ancora molto da guadagnare, come dimostrano i suoi parametri prestazionali.

In netto contrasto, la transizione di AMD alla sua ultima piattaforma MI355X ha portato a un preoccupante margine di profitto negativo del 28, 2%.Il precedente modello MI300X ha avuto risultati ancora peggiori, con un margine di profitto negativo del 64, 0% in termini di prestazioni di inferenza AI. Il rapporto di Morgan Stanley analizza anche la generazione di fatturato per chip all’ora, che mostra il GB200 di NVIDIA raggiungere i 7, 5 dollari all’ora, seguito dall’HGX H200 a 3, 7 dollari. In netto confronto, l’MI355X di AMD genera solo 1, 7 dollari all’ora, mentre la maggior parte degli altri concorrenti si attesta tra 0, 5 e 2 dollari, a dimostrazione del predominio di NVIDIA in questo settore.

Il significativo vantaggio di NVIDIA nell’inferenza AI deriva principalmente dal supporto per FP4 e dai continui miglioramenti al suo stack AI CUDA. L’azienda ha efficacemente trattato diversi dei suoi precedenti modelli di GPU, tra cui Hopper e persino Blackwell, con quello che può essere paragonato al trattamento di un vino pregiato, migliorandone progressivamente le prestazioni ogni trimestre.
Sebbene le piattaforme MI300 e MI350 di AMD siano esperte in termini di capacità hardware, l’azienda deve ancora affrontare delle sfide nell’ottimizzazione del software per l’inferenza dell’intelligenza artificiale, un’area in cui sono assolutamente necessari dei miglioramenti.

In particolare, Morgan Stanley ha anche evidenziato che il costo totale di proprietà (TCO) delle piattaforme MI300X di AMD ha raggiunto i 744 milioni di dollari, paragonabile ai circa 800 milioni di dollari della piattaforma GB200 di NVIDIA. Ciò indica che la struttura dei costi di AMD potrebbe non essere favorevole nel panorama competitivo. Il TCO stimato del nuovo server MI355X, pari a 588 milioni di dollari, si allinea in modo simile a quello del CloudMatrix 384 di Huawei, ma la maggiore spesa iniziale potrebbe scoraggiare i potenziali utenti dalla scelta di AMD, soprattutto considerando le prestazioni superiori di inferenza AI di NVIDIA, che si prevede domineranno l’85% del mercato AI nei prossimi anni.
Mentre NVIDIA e AMD si impegnano a tenere il passo, NVIDIA è pronta a lanciare la sua GPU Blackwell Ultra quest’anno, promettendo un aumento delle prestazioni del 50% rispetto all’attuale modello GB200. Successivamente, la futura piattaforma Rubin dovrebbe entrare in produzione nella prima metà del 2026, accompagnata da Rubin Ultra e Feynman. Nel frattempo, AMD prevede di lanciare la MI400 il prossimo anno per competere con Rubin e dovrebbe implementare diverse ottimizzazioni dell’inferenza AI per la sua linea MI400, il che creerà un’interessante competizione dinamica nel segmento AI.
Fonti di notizie: WallStreetCN, Jukanlosreve
Lascia un commento