NVIDIA Blackwell GPU dominiert mit unübertroffener KI-Inferenzleistung: Mit GB200-Chips werden Gewinnmargen von bis zu 78 % erreicht, dank überlegener Softwareoptimierungen übertrifft es AMD

NVIDIA Blackwell GPU dominiert mit unübertroffener KI-Inferenzleistung: Mit GB200-Chips werden Gewinnmargen von bis zu 78 % erreicht, dank überlegener Softwareoptimierungen übertrifft es AMD

Die Blackwell-GPUs von NVIDIA haben sich an die Spitze der KI-Inferenzleistung gesetzt und führen zu deutlich höheren Gewinnmargen für Unternehmen, die diese Technologie nutzen, im Vergleich zu ihren Wettbewerbern.

NVIDIAs umfassende KI-Software und Optimierungen: Ein Wettbewerbsvorteil gegenüber AMD

Eine aktuelle Analyse von Morgan Stanley Research bietet einen umfassenden Vergleich der Gewinnmargen und Betriebskosten im Zusammenhang mit KI-Inferenz-Workloads verschiedener Technologieanbieter. Die Ergebnisse zeigen, dass Unternehmen, die als KI-Inferenz-„Fabriken“ fungieren, Gewinnmargen von über 50 % erzielen, wobei NVIDIA klarer Spitzenreiter ist.

NVIDIA Blackwell GPU schlägt die Konkurrenz mit der höchsten KI-Inferenzleistung der Branche: Gewinnmargen bei Verwendung von GB200-Chips bis zu 78 %, meilenweit vor AMD aufgrund von Softwareoptimierungen 1

Die Studie bewertete eine Reihe von KI-Fabriken, insbesondere solche mit einem Leistungsbedarf von 100 MW, und nutzte Server-Racks von mehreren wichtigen Branchenakteuren, darunter NVIDIA, Google, AMD, AWS und Huawei. Unter diesen ragte NVIDIAs GB200 NVL72 „Blackwell“-GPU-Plattform hervor, die eine beeindruckende Gewinnspanne von 77, 6 % und einen geschätzten Gewinn von rund 3, 5 Milliarden US-Dollar erzielte.

Dicht dahinter folgt Googles TPU v6e Pod mit einer Gewinnspanne von 74, 9 %, während sich AWS‘ Trn2 Ultraserver mit einer Gewinnspanne von 62, 5 % den dritten Platz sichert. Andere Lösungen weisen Gewinnspannen von etwa 40–50 % auf, doch AMD hat noch erheblichen Nachholbedarf, wie die Leistungskennzahlen zeigen.

GPU-Umsatz- und Mietpreisvergleich: NVIDIA, Google TPU, AMD, Huawei, AWS. Daten von Morgan Stanley.

Im krassen Gegensatz dazu führte AMDs Umstellung auf die neueste MI355X-Plattform zu einer beunruhigenden negativen Gewinnspanne von 28, 2 %.Das Vorgängermodell MI300X schnitt sogar noch schlechter ab und erzielte eine erschreckende negative Gewinnspanne von 64, 0 % in Bezug auf die KI-Inferenzleistung. Der Bericht von Morgan Stanley schlüsselt auch den Umsatz pro Chip und Stunde auf. Demnach erzielt NVIDIAs GB200 7, 5 US-Dollar pro Stunde, gefolgt vom HGX H200 mit 3, 7 US-Dollar. Im krassen Vergleich dazu generiert AMDs MI355X nur 1, 7 US-Dollar pro Stunde, während die meisten anderen Wettbewerber zwischen 0, 5 und 2, 0 US-Dollar erzielen, was NVIDIAs Dominanz in diesem Bereich unterstreicht.

Balkendiagramm mit Umsatz- und Gewinnschätzungen für KI-Prozessoren von NVIDIA, Google, AMD, AWS, HUAWEI.

Der deutliche Vorsprung von NVIDIA bei der KI-Inferenz resultiert vor allem aus der Unterstützung von FP4 und den kontinuierlichen Verbesserungen seines CUDA-KI-Stacks. Das Unternehmen hat mehrere seiner früheren GPU-Modelle, darunter Hopper und sogar Blackwell, erfolgreich mit einer Behandlung behandelt, die man mit edlem Wein vergleichen könnte: Die Leistung wurde jedes Quartal schrittweise gesteigert.

Während die MI300- und MI350-Plattformen von AMD hinsichtlich der Hardwarefunktionen überragend sind, steht das Unternehmen noch immer vor der Herausforderung, die Software für KI-Inferenz zu optimieren, ein Bereich, in dem dringend Verbesserungen erforderlich sind.

Vergleichstabelle der KI-Fabrikkosten für verschiedene Plattformen, wobei GB200 NVL72 als teuerstes Modell hervorgehoben wird.

Morgan Stanley hob insbesondere hervor, dass die Gesamtbetriebskosten (TCO) für AMDs MI300X-Plattformen bis zu 744 Millionen US-Dollar betragen, vergleichbar mit NVIDIAs GB200-Plattform mit rund 800 Millionen US-Dollar. Dies deutet darauf hin, dass AMDs Kostenstruktur im Wettbewerbsumfeld möglicherweise nicht günstig ist. Die geschätzten Gesamtbetriebskosten des neueren MI355X-Servers von 588 Millionen US-Dollar ähneln denen von Huaweis CloudMatrix 384. Die höheren Anfangsausgaben könnten potenzielle Nutzer jedoch von AMD abhalten, insbesondere angesichts der überlegenen KI-Inferenzleistung von NVIDIA, die in den kommenden Jahren voraussichtlich 85 % des KI-Marktes dominieren wird.

Da NVIDIA und AMD bestrebt sind, mit den anderen Schritt zu halten, bringt NVIDIA in diesem Jahr seine Blackwell Ultra GPU auf den Markt, die eine Leistungssteigerung von 50 % gegenüber dem bestehenden GB200-Modell verspricht. Anschließend soll die kommende Rubin-Plattform zusammen mit Rubin Ultra und Feynman im ersten Halbjahr 2026 in Produktion gehen. AMD plant derweil, im nächsten Jahr den MI400 einzuführen, um mit Rubin zu konkurrieren, und wird voraussichtlich mehrere KI-Inferenzoptimierungen für seine MI400-Reihe implementieren, was zu einem interessanten dynamischen Wettbewerb im KI-Segment führen wird.

Nachrichtenquellen: WallStreetCN, Jukanlosreve

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert