
Dieser Inhalt stellt keine Anlageberatung dar. Der Autor hält keine Positionen in den hierin genannten Aktien.
GPU-Ökonomie und KI-Fabrikeffizienz verstehen
Vor dem Hintergrund der schwankenden GPU-Ökonomie hat Morgan Stanley eine überzeugende Analyse veröffentlicht, die die außergewöhnliche Effizienz der NVIDIA GB200 NVL72-GPUs für den Betrieb großer KI-Fabriken hervorhebt. Diese Erkenntnisse sind insbesondere für Stakeholder relevant, die an Investitionsentscheidungen oder technologischen Fortschritten in der KI-Infrastruktur beteiligt sind.
Schlüsselkomponenten der NVL72 AI Racks
Zur Verdeutlichung: Jedes NVL72-KI-Rack integriert 72 NVIDIA B200-GPUs sowie 36 Grace-CPUs, die über die fortschrittliche NVLink 5- Technologie miteinander verbunden sind, die für hohe Bandbreite und geringe Latenz ausgelegt ist. Bemerkenswert ist, dass die aktuellen Kosten für ein solches Server-Rack über 100 US-Dollar liegen $3.1 million
, im krassen Gegensatz zu den Kosten $190, 000
für ein H100-Rack.
Trotz der höheren Anfangsinvestition argumentiert Morgan Stanley, dass die Wahl der neuesten Rack-Scale-Lösung von NVIDIA im Vergleich zur älteren Generation H100k größere wirtschaftliche Vorteile bietet und den aktuellen Marktanforderungen entspricht.
Rentabilitätseinblicke
Nach Berechnungen von Morgan Stanley übertreffen NVIDIAs GB200 NVL72-Systeme die Konkurrenz in puncto Rentabilität und Umsatzgenerierung. Die von Google entwickelten TPU v6e-Pods liegen knapp hinter den Angeboten von NVIDIA, wie das folgende Rentabilitätsdiagramm für ein theoretisches Ergebnis zeigt 100MW AI factory
.

Insbesondere können die GB200 NVL72 AI-Racks eine beeindruckende Gewinnspanne von 77, 6 Prozent erzielen, während Googles TPU v6e eine knappe Marge von 74, 9 Prozent erreicht.
Kostenvergleiche und Marktdynamik
Während die Preise für die TPU v6e-Pods von Google noch nicht öffentlich bekannt sind, wird allgemein darauf hingewiesen, dass die Mietkosten für TPU-Pods etwa 40 bis 50 Prozent niedriger sind als die für NVL72-Racks.
AMDs Position auf dem Markt
Der Bericht von Morgan Stanley weist außerdem auf einen besorgniserregenden Trend bei KI-Fabriken hin, die AMDs MI300- und MI355 -Technologien verwenden und voraussichtlich negative Gewinnmargen von -28.2 percent
bzw.erzielen werden -64 percent
.
Gesamtbetriebskostenanalyse
Die Analyse geht davon aus, dass die Einrichtung eines 100MW AI data center
Infrastrukturkosten von ca.umfasst $660 million
, die über ein Jahrzehnt abgeschrieben werden. Die GPU-Kosten können stark schwanken und liegen zwischen $367 million
100 $2.273 billion
und 150 US-Dollar bei einer Abschreibungsdauer von vier Jahren. Zusätzlich berücksichtigen die Betriebskosten die Energieeffizienz von Kühlsystemen, die an die globalen Strompreise angepasst sind.
In diesem Zusammenhang weisen die GB200 NVL72-Systeme von NVIDIA die höchsten Gesamtbetriebskosten (TCO) auf, berechnet auf $806.58 million
, dicht gefolgt von der MI355X-Plattform mit $774.11 million
.
Schreibe einen Kommentar