AMD、RyzenとRadeonでOpenAIのGPT-OSS 20Bおよび120B AIモデルを強化: Ryzen AI MAX+ 395は、驚異的な128GBのメモリプールを備え、120Bモデルをサポートする唯一のAIチップです。

AMD、RyzenとRadeonでOpenAIのGPT-OSS 20Bおよび120B AIモデルを強化: Ryzen AI MAX+ 395は、驚異的な128GBのメモリプールを備え、120Bモデルをサポートする唯一のAIチップです。

OpenAIは最新のAIモデル「GPT-OSS 20B」と「GPT-OSS 120B」を発表しました。AMDはこのイノベーションの最前線に立っています。同社はRyzen AI MAXとRadeon GPUを通じてこれらのモデルを完全サポートすることを発表し、ユーザーは高度な機能とパフォーマンス強化を活用できるようになります。

AMDのRyzen AI MAX+ 395 APU:OpenAIのGPT-OSS 120Bにとってゲームチェンジャー

OpenAIの新しいAIモデルの導入に伴い、AMDはRyzen AI CPUとRadeon GPUを最適なパフォーマンスを実現する頼りになるハードウェアとして位置付けています。特に、Ryzen AI MAX+ 395 APUは、GPT-OSS 120Bモデルをネイティブ実行できる唯一のチップとして注目されています。また、Day-0サポートも提供しており、ユーザーはLM Studioを介してすぐにモデルを体験できます。

AMD Ryzen AI Max+ は、OpenAI の GPT-OSS 120B と MCP サポートを活用して処理能力を強化します。

これらの新しいモデルとは一体何でしょうか?GPT-OSSシリーズは、包括的な推論とエージェントタスクを実行できるオープンウェイトモデルで構成されています。多くのAIチップやPCは20Bバージョンに対応していますが、より要求の厳しい120Bモデルは、かなりのハードウェアリソースを必要とします。AMDのRyzen AI MAXとStrix Haloアーキテクチャは、このような高度なAI機能に特化した最大128GBのメモリを搭載しており、まさにその真価を発揮します。

AMD のシステムによる高度な AI 機能を探ります。

GGML変換されたMXFP4の重み付けには約61GBのVRAMが必要ですが、これはAMD Ryzen AI MAX+ 395プロセッサの96GB専用グラフィックメモリにシームレスに収まります。この機能を効率的に使用するには、ドライバーのバージョンがAMD Software: Adrenalin Edition 25.8.1 WHQL以上であることを確認してください。

毎秒30トークンの速度を誇るAMDユーザーは、データセンターグレードの強力なモデルを利用できます。このパフォーマンスは、Ryzen AI MAX+プラットフォームの帯域幅と、GPT-OSS 120Bに搭載された革新的なMixture-of-Expertsアーキテクチャの組み合わせによってさらに強化されます。大容量メモリのおかげで、このモデルではModel Context Protocol(MCP)実装のメリットも享受できます。特に、AMD Ryzen AI 300シリーズプロセッサをお使いの方は、より小型の20Bモデルを最大限に活用できます。

GPT-OSS 20Bモデルで最適なパフォーマンスを得るには、AMD Radeon 9070 XT 16GBグラフィックスカードのご利用をお勧めします。この構成は、卓越した速度を実現するだけでなく、特に計算負荷の高いシナリオでモデルコンテキストプロトコル(MCP)実装を使用する場合に、TTFT(Time-to-First-Token)の優れた利点も発揮します。

OpenAIのGPT-OSS 120Bおよび20BモデルをAMDハードウェアで体験する方法

  1. 最新のAMDソフトウェア:Adrenalin Edition 25.8.1 WHQLドライバー以上をダウンロードしてインストールしてください。古いドライバーはパフォーマンスと互換性を損なう可能性があることにご注意ください。
  2. AMD Ryzen AI対応マシンをお使いの場合は、デスクトップに移動し、「AMD Software: Adrenalin Edition」>「パフォーマンスタブ」>「チューニングタブ」>「VGM(可変グラフィックスメモリ)」を選択してください。VGMは、添付の表に記載されている仕様に従って設定してください。AMD Radeonグラフィックカードをお使いの場合は、この手順を省略できます。
  3. システムに LM Studio をインストールします。
  4. プロンプトが表示されたら、オンボーディング プロセスをスキップすることを選択します。
  5. アプリケーションで「gpt-oss」を検索してください。「LM Studio community」で始まるオプションが見つかるはずです。ハードウェアの互換性に応じて、20Bまたは120Bのいずれかを選択してください。
  6. LM Studio 内のチャット タブにアクセスします。
  7. ドロップダウン メニューを使用して目的の OpenAI モデルを選択し、「パラメータを手動でロードする」をオンにします。
  8. 「GPU オフロード」スライダーを最大設定に調整し、設定を記憶するオプションを有効にします。
  9. ロードボタンをクリックします。120Bモデルのロードには時間がかかる場合があり、モデルのサイズによってはロードバーが停止しているように見える場合があります。
  10. プロンプトを通じてモデルとのやり取りを始めましょう。

OpenAI モデルとの互換性を詳述した AMD 製品サポート マトリックス。

AMDはOpenAIのGPT-OSSモデルのサポートリストも公開しました。Ryzen AI MAX+ 395は、120Bモデルを実行できる唯一のチップとして際立っています。一方、Radeon RX 9000、Radeon AI PRO R9000、Radeon RX 7000といった他のGPUは、いずれも16GB以上のメモリを搭載しており、GPT-OSS 20Bモデルを問題なく処理できます。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です