
著名なGPUメーカーであるNVIDIAは、革新的なモジュール型メモリソリューション「SOCAMM(Scalable On-Demand AI Memory Module)」の在庫拡大に大きく前進しています。この進歩により、AIデバイス間でシームレスなメモリアップグレードが可能になり、全体的なパフォーマンスとエネルギー効率が向上します。
NVIDIAのSOCAMMメモリ拡張:高まる需要への対応
先日開催されたNVIDIA GTCイベントで発表されたSOCAMMメモリシステムは、今年を通して生産量が大幅に増加する見込みです。NVIDIAは、人工知能(AI)製品ラインナップにおいて、消費電力を最小限に抑えながら最高レベルのパフォーマンスを提供することを目指しており、この取り組みはその一環です。イベントでは、Micron社と共同開発したSOCAMMメモリを搭載したNVIDIA GB300プラットフォームが展示されました。このソリューションは、AIサーバーやモバイルデバイスで一般的に使用されているHBMやLPDDR5Xなどのメモリタイプとは一線を画しています。

SOCAMMメモリは、従来モバイルデバイスや省電力デバイスで好まれてきたLPDDR DRAMを採用しています。しかし、SOCAMMの大きな特徴は、メモリがPCBに恒久的にはんだ付けされている他のシステムとは異なり、モジュール設計によりアップグレードが可能であることです。ETNewsの報道によると、NVIDIAは今年60万~80万個のSOCAMMユニットを製造する予定であり、AI製品群の拡充への取り組みを強調しています。
SOCAMMメモリの早期導入企業の一つに、GB300 Blackwellプラットフォームの最新版があります。この開発は、NVIDIAがAI技術エコシステム全体にわたって新しいメモリフォームファクタを採用していく方向への転換を示しています。今年のSOCAMMユニットの生産台数は最大80万台と予想されていますが、これはNVIDIAのパートナー企業が2025年に供給するHBMメモリと比較すると控えめな数字です。しかし、来年にはSOCAMM 2メモリバリアントの展開により、さらなる規模拡大が期待されます。

SOCAMMメモリは、コンパクトでモジュール化されただけでなく、従来のRDIMMソリューションと比較して電力効率を大幅に向上させる特殊なフォームファクターを導入します。電力効率に関する正確な指標はまだ明らかにされていませんが、初期の報告によると、SOCAMMはRDIMMよりも高い帯域幅を約束し、モバイルデバイスで使用されているLPDDR5XやLPCAMMなどの一般的な代替メモリと比較して優れたパフォーマンスを発揮するとされています。
150~250GB/秒のメモリ帯域幅が期待されるSOCAMMは、AI搭載PCおよびサーバー向けの柔軟でアップグレード可能なソリューションを提供します。このイノベーションは、ユーザーに容易な拡張の可能性を提供し、AI技術の進歩をリードするというNVIDIAのコミットメントをさらに確固たるものにします。
コメントを残す