クアルコムは、ラックレベルのAI推論ソリューションとして機能するよう戦略的に設計された次世代AIチップを発表しました。これらのチップの特徴は、モバイルメモリの活用にあります。
大胆な転換:クアルコムのAIチップは効率的な推論のためにHBMから脱却
モバイルテクノロジーのリーダーとして長年認められてきたQualcommは、近年ポートフォリオを大幅に多様化し、コンシューマーコンピューティングやAIインフラ分野にも進出しています。同社は最近、ラックスケールアプリケーション向けに特別に設計されたAI200およびAI250チップソリューションを発表しました。これは、NVIDIAやAMDといった業界大手が優勢を占める競争の激しい分野への注目すべき参入となります。Qualcomm独自のアプローチは、主にモバイルデバイスで使用されているLPDDRメモリを活用し、これらのチップのパフォーマンスを向上させるものです。
LPDDRメモリの重要性を理解するには、より一般的に使用されている高帯域幅メモリ(HBM)と比較することが重要です。AI200およびAI250チップは、LPDDRメモリのメモリ容量を最大768GBまで拡張でき、これはHBMシステムの一般的な帯域幅を超えています。この戦略により、データ移動のエネルギーとコストの両方が削減され、Qualcommが「ニアメモリ」アーキテクチャと呼ぶものを実現します。HBMではなくLPDDRを採用する主な利点は次のとおりです。
- 電力効率:ビットあたりのエネルギー消費量が低くなります。
- コスト効率:高度な HBM の代替品に比べて手頃な価格です。
- メモリ密度の向上:推論アプリケーションに最適です。
- 熱効率: HBM ソリューションと比較して熱出力が低減されます。
これらの有望な機能にもかかわらず、Qualcommのラックスケールチップは、NVIDIAやAMDの既存製品と比較すると限界があります。HBMがないため、メモリ帯域幅が減少し、インターフェースが狭くなるためレイテンシが増加します。さらに、LPDDRメモリは、高温が特徴の24時間365日稼働の厳しいサーバー環境では最適なパフォーマンスを発揮できない可能性があります。Qualcommの主な目標は、AI推論のための実用的な選択肢を提供することにあるようですが、この重点は特定のアプリケーションへの適用を制限しています。

さらに、AI200およびAI250チップは、直接水冷技術を搭載し、PCIe/Ethernetプロトコルをサポートし、ラックレベルの消費電力は160kWと比較的低く抑えられています。特に注目すべきは、これらのチップがQualcommのHexagon NPUと統合されている点です。Hexagon NPUは、高度なデータフォーマットのサポートや推論に最適化された機能など、推論能力を着実に強化しています。
AIハードウェア市場の競争は激化しており、Intelなどの大手企業が「Crescent Island」ソリューションを発売し、NVIDIAがRubin CPX AIチップを展開しています。Qualcommは推論分野の重要性の高まりを認識しており、AI200およびAI250ソリューションのリリースは戦略的な動きです。しかしながら、大規模なトレーニングや大規模なワークロードを伴うタスクでは、これらのソリューションは必ずしも最適な選択肢とは言えません。
AI業界における競争の激化は刺激的で、Qualcommの発表に対する小売業者の初期反応は圧倒的に好意的だった。
コメントを残す