AMD Ryzen AI MAX+プロセッサはコンシューマーグラフィックス向けに96GBのメモリを搭載し、PC上で128BパラメータLLMのローカル実行を可能にします

AMD Ryzen AI MAX+プロセッサはコンシューマーグラフィックス向けに96GBのメモリを搭載し、PC上で128BパラメータLLMのローカル実行を可能にします

AMD は最新のドライバー アップデートにより、パーソナル コンピューターのエッジ AI 機能を大幅に進化させ、ユーザーに大規模言語モデル (LLM) のサポートを可能にしました。

AMD、Strix Haloプラットフォームで消費者向けAIイノベーションを強化

業界の主要プレーヤーであるAMDは、革新的なXDNAエンジンを通じて、高性能AIコンピューティングをコンシューマーシステムに統合する上で目覚ましい進歩を遂げてきました。同社のAccelerated Processing Unit(APU)、特にStrix PointおよびStrix HaloシリーズのAPUは、卓越したAI機能を発揮します。Adrenalin Edition 25.8.1ドライバの最新リリースでは、最大1280億パラメータに達するLLMモデルのサポートが導入され、Metaの最先端のLlama 4 Scoutをはじめとする高度なAIモデルをコンシューマーデバイスで活用できるようになります。

AMD Ryzen AI: 業界をリードする Windows LLM サポート、4 ビットから 16 ビットの量子化、薄型軽量の導入

AMDのテクノロジーの際立った特徴の一つは、可変グラフィックスメモリ(VGM)です。これにより、ユーザーは最大96GBのグラフィックスメモリを統合GPU(iGPU)に割り当てることができます。この機能により、大規模なAIモデルをローカルで実行することが可能になります。例えば、LlamaモデルはMoE(Mixture of Experts)設計で動作し、実行時には170億個のパラメータのみを使用します。その結果、ユーザーは驚異的なTPS(1秒あたりのトランザクション数)を達成でき、LLMを高度なAIアシスタントとして効率的に機能させることができます。

AMD AI Max+ は最大 128B のパラメータで実行されます。モデルごとのメモリ使用量の比較チャート。

AMDの進歩は単なる計算能力の向上にとどまらず、コンテキストサイズにも大きな改善をもたらしました。従来、コンシューマー向けプロセッサは約4096トークンのコンテキスト長をサポートしていましたが、AMDは256, 000トークンという驚異的なコンテキスト長を実現し、ワークフローにおけるユーザーコントロールを大幅に向上させ、堅牢なパフォーマンスを一貫して確保しています。これらの進歩は、パーソナルコンピュータにおける「AIコンピューティング」技術の急速な進歩を示しており、業界における大きな変化を示しています。

現在、Strix Haloプラットフォームは限られた数のデバイスでのみ利用可能であり、一部のシステムは2, 000ドルを超える価格設定となっているため、多くの消費者にとってアクセスが容易ではありません。これらの最先端デバイスの入手には多額の投資が必要ですが、価格が高額であるにもかかわらず、AMDのAIパワーの民主化への取り組みは明らかです。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です