
NVIDIA は、AI コンピューティング テクノロジーの最新の進歩である NVIDIA Blackwell Ultra を正式に発表しました。これは、データ センター向けに特別に設計されたメモリ容量と AI コンピューティング機能の大幅な強化を示しています。
NVIDIA Blackwell Ultra: 強化されたパフォーマンスと大容量メモリによる飛躍的進歩
Blackwell シリーズの最初の発売時には多少の出だしの不調がありましたが、NVIDIA は最先端の AI ソリューションの可用性を大幅に向上させました。これは、トップクラスのハードウェア イノベーションとソリューションで、大手 AI およびデータ センター プロバイダーをサポートすることを目的としています。オリジナルの B100 および B200 GPU シリーズは、その強力な AI 計算能力で高い基準を設定しましたが、今や、間もなく登場する Blackwell Ultra が業界のベンチマークを再定義する態勢を整えています。
今後登場する B300 GPU シリーズは、最大 12-Hi HBM3E の高度なメモリ スタックを含む強化されたメモリ構成を備えているだけでなく、迅速な処理のための優れた AI コンピューティング パフォーマンスも提供します。これらの新しいチップは、512 基数機能を誇る最新の Spectrum Ultra X800 イーサネット スイッチとシームレスに統合され、データ量の多いアプリケーションに比類のないネットワーク パフォーマンスを提供します。

NVIDIA データセンター GPU ロードマップの概要
GPU コードネーム | バツ | ルービン(ウルトラ) | ブラックウェル(ウルトラ) | ホッパー | アンペア | 時間 | パスカル |
---|---|---|---|---|---|---|---|
GPU ファミリー | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU ウェウ | X100 | R100 | B100/B200 | H100/H200 | A100 | V100 | P100 |
メモリ | HBM4e? | HBM4 | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
打ち上げ | 202X | 2026-2027 | 2024-2025 | 2022-2024 | 2020-2022 | 2018 | 2016 |
NVIDIA Blackwell Ultra の詳しい情報については、ソースを参照してください。
コメントを残す ▼