NVIDIA Blackwell GB200 は、Microsoft Azure 上の A4 仮想マシンで 2.25 倍のコンピューティング能力と HBM 容量を実現します。

NVIDIA Blackwell GB200 は、Microsoft Azure 上の A4 仮想マシンで 2.25 倍のコンピューティング能力と HBM 容量を実現します。

Microsoft Azure は、初の NVIDIA Blackwell「GB200 NVL72」システムを統合して OpenAI 機能を強化し、AI トレーニングと最適化における極めて重要な進歩を示す重要なマイルストーンを達成しました。

Microsoft、NVIDIA Blackwell テクノロジーで OpenAI の計算能力を拡張

最先端の NVIDIA GB200 NVL72「Blackwell」システムの採用は、OpenAI のパフォーマンスと機能の大きな飛躍を意味します。NVIDIA の高度な GPU は、一貫して OpenAI の AI モデルをサポートしてきました。しかし、Microsoft Azureとのパートナーシップは、より集中的で厳格なトレーニング プロセスを通じて、これらの AI モデルの有効性を最大化することを目的としています。

最近の X の投稿で、OpenAI の CEO である Sam Altman 氏は、Microsoft Azure 上で GB200 NVL72 システムを収容する 8 つのラックの最初の完全なセットの実装が成功したことを確認しました。この革新に対する Microsoft の CEO である Satya Nadella 氏と NVIDIA の CEO である Jensen Huang 氏への彼の謝辞は、これら大手テクノロジー企業の協力関係の強さを強調しています。このパートナーシップにより、Microsoft は AI 運用のクラウド サービス プロバイダーの中で強力なプレーヤーとしての地位を確立します。

ブラックウェルシステムの比類のない計算能力

洗練された NVIDIA Blackwell GB200 NVL72 システムは、各ラックに 36 個の Grace CPU と 72 個の Blackwell GPU が統合された優れたアーキテクチャを誇ります。8 つのラックに完全に展開すると、システムの合計は 288 個の Grace CPU と576 個のBlackwell GPU になります。このセットアップにより、並外れた計算能力が生まれます。1 つのラックで最大 6, 480 TFLOPS の FP32 処理能力と 3, 240 TFLOPS の FP64 パフォーマンスを実現でき、システム全体では、この数値をほぼ51, 840 TFLOPSの FP32 と25, 920 TFLOPSの FP64 にまで拡張できます。

このような優れた処理性能により、Azure OpenAI サービスは、運用を効率的に拡張することを目指す企業のニーズに効果的に対応できます。NVIDIA “Blackwell”GB200 NVL72 システムは、最大 576 TB/秒の高メモリ帯域幅と堅牢な並列処理機能を備え、広範な生成 AI タスクを処理するようにカスタマイズされています。

NVIDIA ブラックウェル GPU

OpenAI の現在の GPU ラインナップには、V100、H100、A100 などのさまざまな NVIDIA モデルが含まれていますが、Blackwell B200 は GPU テクノロジの頂点を極め、以前のバージョンに比べてパフォーマンスが大幅に向上しています。Microsoft が OpenAI に 140 億ドル近くもの多額の投資を行っていることから、同社がクライアントに最先端のコンピューティング ソリューションを提供することに熱心であることは明らかです。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です