
NVIDIA は、ラックスケールのクラスター構成で使用した場合に優れた推論機能を提供するように設計された、画期的な AI GPU シリーズ「Rubin CPX AI チップ」を発表し、注目を集めました。
NVIDIAのRubin CPX GPU:ラックスケールAIパフォーマンスの新たなベンチマーク
コンピューティングの進歩におけるAI推論の重要性の高まりを認識し、NVIDIAは「CFX」ラインナップで新たな道を歩み始めました。最初の製品となるRubinシリーズは、AIインフラサミットで公開されました。主にロングコンテキストAIアプリケーション向けに位置付けられるRubin CPX GPUは、既存のRubin GPUとVera CPUを補完し、NVIDIAが「革命」と呼ぶAI推論の効率性における先駆けとなるでしょう。
Rubin CPXは、30ペタフロップスのNVFP4演算能力と128GBの最先端GDDR7メモリなど、優れた仕様を誇ります。専用設計のNVIDIA Vera Rubin NVL144 CPXラックに統合され、144基のRubin CPX GPU、144基のRubin GPU、そして36基のVera CPUを搭載し、合計で驚異的な8エクサフロップスのNVFP4演算性能を実現します。これはBlackwell Ultraシステムの7.5倍という大幅な性能向上であり、Spectrum-X Ethernetなどの革新的な技術による性能向上により、100万トークン規模のコンテキストAI推論ワークロードの処理能力を実現します。

このプラットフォームは、驚異的な「30倍から50倍の投資収益率(ROI)」を実現すると予測されており、Vera Rubin NVL144 CPXラックは、次世代生成AIアプリケーションの開発において現在直面している制約を克服するための重要なツールとして位置付けられます。Rubin CPXの構成は今後さらに拡大される予定ですが、詳細は未公開です。しかし、HBMではなくGDDR7メモリを搭載していることから、多くのユーザーにとってよりコスト効率の高いソリューションとなることが期待されます。
NVIDIAはAI業界の複雑な状況を巧みに乗り越え、競合他社が優位に立つ機会を効果的に最小限に抑えています。来年間近に迫った次世代Rubin AIラインナップの発売は、コンピューティング能力をかつてないレベルに引き上げることを約束します。
コメントを残す