NVIDIA Blackwell GPU が比類のない AI 推論性能で圧倒的な地位を確立: GB200 チップで最大 78% の利益率を達成、優れたソフトウェア最適化により AMD を上回る

NVIDIA Blackwell GPU が比類のない AI 推論性能で圧倒的な地位を確立: GB200 チップで最大 78% の利益率を達成、優れたソフトウェア最適化により AMD を上回る

NVIDIA の Blackwell GPU は AI 推論パフォーマンスの最前線に位置付けられ、このテクノロジーを活用する企業は競合他社に比べて大幅に高い利益率を実現しています。

NVIDIAの包括的なAIソフトウェアと最適化:AMDに対する競争優位性

モルガン・スタンレー・リサーチの最新分析では、AI推論ワークロードに関連する利益率と運用コストを、様々なテクノロジープロバイダー間で徹底的に比較しています。その結果、AI推論の「工場」として機能する企業は50%を超える利益率を享受しており、NVIDIAが明確なリーダーとして浮上していることが明らかになりました。

NVIDIA Blackwell GPUが業界最高のAI推論性能で競争相手を圧倒:GB200チップ使用時の利益率は最大78%、ソフトウェア最適化によりAMDを大きく上回る1

この調査では、NVIDIA、Google、AMD、AWS、Huaweiといった業界主要企業のサーバーラックを組み込んだ、100MWの電力を必要とするAIファクトリーを幅広く評価しました。その中でも、NVIDIAのGB200 NVL72「Blackwell」GPUプラットフォームは際立っており、77.6%という高い利益率と推定約35億ドルの利益を達成しています。

GoogleのTPU v6eポッドは利益率74.9%でこれに続き、AWSのTrn2 Ultraserverは利益率62.5%で3位につけています。他のソリューションの利益率は40~50%程度ですが、AMDはパフォーマンス指標からもわかるように、まだ大きな差を詰めなければなりません。

GPUの収益とレンタル価格の比較:NVIDIA、Google TPU、AMD、Huawei、AWS。データはモルガン・スタンレー提供。

対照的に、AMDは最新のMI355Xプラットフォームへの移行によって、28.2%という深刻なマイナス利益率を記録しました。前モデルのMI300Xはさらに悪く、AI推論性能において64.0%という驚異的なマイナス利益率を記録しました。モルガン・スタンレーのレポートでは、チップ1個あたりの時間当たり収益の内訳も示されており、NVIDIAのGB200が7.5ドル/時間、HGX H200が3.7ドルで続いています。一方、AMDのMI355Xはわずか1.7ドル/時間であるのに対し、他の競合製品のほとんどは0.5ドルから2.0ドルの範囲で収益を上げており、この分野におけるNVIDIAの優位性が伺えます。

NVIDIA、Google、AMD、AWS、HUAWEI の AI プロセッサの収益と利益の見積もりを示す棒グラフ。

NVIDIAがAI推論において持つ大きな優位性は、主にFP4のサポートとCUDA AIスタックの継続的な強化によるものです。同社はHopperやBlackwellといった初期のGPUモデルを、まるで高級ワインのように四半期ごとに段階的に性能向上させるという、効果的な手法で処理してきました。

AMD の MI300 および MI350 プラットフォームはハードウェア機能の点では優れていますが、同社は AI 推論用のソフトウェアの最適化という課題に依然として直面しており、この分野での改善が極めて必要とされています。

さまざまなプラットフォームの AI ファクトリーコストの比較チャート。GB200 NVL72 が最もコストが高いことが強調されています。

注目すべきことに、モルガン・スタンレーはAMDのMI300Xプラットフォームの総所有コスト(TCO)が最大7億4, 400万ドルに達し、NVIDIAのGB200プラットフォームの約8億ドルに匹敵すると指摘しました。これは、AMDのコスト構造が競争環境において必ずしも有利ではない可能性を示唆しています。新型のMI355Xサーバーの推定TCOは5億8, 800万ドルで、HuaweiのCloudMatrix 384とほぼ同水準ですが、初期費用の高さは、特に今後数年間でAI市場の85%を占めると予測されているNVIDIAの優れたAI推論性能を考えると、潜在的なユーザーがAMDを選択することを躊躇させる可能性があります。

NVIDIAとAMDは互いに歩調を合わせようと努力しており、NVIDIAは今年Blackwell Ultra GPUを発売する予定で、既存のGB200モデルと比較して50%の性能向上を約束しています。これに続き、2026年前半にはRubinプラットフォームの生産開始が予定されており、Rubin UltraとFeynmanも投入される予定です。一方、AMDはRubinに対抗するため、来年MI400を発売する予定で、MI400シリーズには複数のAI推論最適化が実装される見込みです。これにより、AI分野におけるダイナミックな競争が生まれることが期待されます。

ニュースソース: WallStreetCNJukanlosreve

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です