ラジャ・コドゥリ氏がサンディスクの高帯域幅フラッシュメモリ諮問委員会に加わり、HBMと比較してコスト効率の高い4TBでAI GPUの容量を8倍から16倍に向上

ラジャ・コドゥリ氏がサンディスクの高帯域幅フラッシュメモリ諮問委員会に加わり、HBMと比較してコスト効率の高い4TBでAI GPUの容量を8倍から16倍に向上

ラジャ・コドゥリ氏はサンディスクにおいて、高帯域幅フラッシュメモリ(HBF)の開発を主導する重要な役割を担うことになった。この革新的な技術は、従来の高帯域幅メモリ(HBM)の限界を克服し、AI(人工知能)の能力を強化することを目指している。HBMは容量制約に悩まされることが多かった。

ラジャ・コドゥリ氏がサンディスクのHBFメモリ諮問委員会に戦略的に任命

2023年にインテルのグラフィックス部門を退職した元チーフアーキテクトのラジャ・コドゥリ氏は、現在AI GPUのVRAM容量向上に尽力しています。コドゥリ氏が最近発表したサンディスクの技術諮問委員会への参加は、次世代AI GPUのメモリ容量を大幅に向上させると期待されるHBFメモリ技術の発展への彼の強いコミットメントを如実に示しています。

ラジャ氏とサンディスクのコラボレーションは、GPU開発と計算アーキテクチャにおける豊富な経験から注目に値します。この相乗効果は、HBM固有の欠点を克服するHBF技術の開発を目指すサンディスクの取り組みと非常に合致しています。

AI ワークロード向けに NAND フラッシュで HBM メモリを強化する高帯域幅フラッシュ スタック図。
HBF スタックは、HBM と同じ帯域幅を維持しながら、数倍のメモリ容量を提供できます。

HBMの開発開始当初、モバイルにとって重要な制約であるワット当たり帯域幅とmm²当たり帯域幅の向上に注力し、同時に既存ソリューションと競争力のある容量を維持することに注力しました。HBFでは、競争力のある帯域幅を提供しながら、メモリ容量(1ドルあたり、1ワットあたり、1mm²あたり)を大幅に向上させることに注力しています。

ラジャ・コドゥリ

AI中心のスーパーチップ向けに大容量メモリを実現するHBMの急速な進歩にもかかわらず、HBFはシリコン貫通ビア(Through-Silicon Vias)技術を活用することでメモリ容量を飛躍的に向上させる可能性を秘めています。1つのHBFスタックでテラバイトレベルのメモリ容量を実現でき、8つのHBFスタックをシステムに統合することで、HBMの高帯域幅特性を維持しながら、AI GPUで最大4TBのVRAMを実現できます。この開発は、AIアプリケーションの高まる需要に応えるために不可欠です。

サンディスクのHBFテクノロジーは、レイテンシに敏感なタスクにおいてDRAMと直接競合するものではないことを理解することが重要です。HBFテクノロジーは、推論や大規模モデルの学習といった、レイテンシよりも容量と帯域幅を優先するAI処理のメモリ要件を満たすように設計されています。ラジャ氏の戦略的役割は、この大容量メモリソリューションの発展に大きく貢献するでしょう。

HBM と HBF GPU メモリ容量の比較。GPU メモリ機能の視覚的表現: 192 GB HBM と 4, 096 GB HBF。Frontier LLM を HBF で実行: 1.8T のパラメーター、16 ビットの重み、GPU 用の 3, 600 GB のメモリ。

サンディスクはHBFをオープンスタンダードのフレームワークとして確立することを目指しており、この取り組みは業界全体での広範な採用を促進することが期待されています。ラジャ氏の卓越したネットワークとエコシステム構築における経験は、GPUメーカーとの連携を強化する上で非常に貴重なものとなるでしょう。

HBFは、デバイスにメモリ容量と帯域幅を装備し、高度なモデルをローカルでリアルタイムに実行できるようにすることで、エッジAIに革命をもたらします。この進歩は、インテリジェントエッジアプリケーションの新時代を切り開き、AI推論の実行方法と場所を根本的に変えるでしょう。

– ラジャ・コドゥリ

詳細については、SanDiskからの公式発表をご覧ください。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です