
OpenAI 发布了其最新的 AI 模型 GPT-OSS 20B 和 GPT-OSS 120B,而 AMD 则处于这项创新的前沿。AMD 宣布其 Ryzen AI MAX 和 Radeon GPU 将全面支持这些模型,使用户能够充分利用先进的功能和性能提升。
AMD 的 Ryzen AI MAX+ 395 APU:OpenAI 的 GPT-OSS 120B 的游戏规则改变者
随着 OpenAI 全新 AI 模型的推出,AMD 已将其 Ryzen AI CPU 和 Radeon GPU 定位为实现最佳性能的首选硬件。具体而言,Ryzen AI MAX+ 395 APU 被重点强调为能够原生执行 GPT-OSS 120B 模型的独家芯片,同时还提供 Day-0 支持,让用户能够立即通过 LM Studio 体验这些模型。

这些新模型究竟是什么?GPT-OSS 系列包含能够执行全面推理和代理任务的开放权重模型。虽然许多 AI 芯片和 PC 可以处理 20B 版本,但要求更高的 120B 版本需要大量的硬件资源。AMD 的 Ryzen AI MAX 和 Strix Halo 架构正是为此而生,它们配备高达 128 GB 的内存,专门用于支持此类先进的 AI 功能。

GGML 转换后的 MXFP4 权重需要大约 61 GB 的 VRAM,可无缝适配 AMD Ryzen AI MAX+ 395 处理器的 96 GB 专用显存。用户需要确保其驱动程序版本为 AMD Software: Adrenalin Edition 25.8.1 WHQL 或更高版本,才能有效使用此功能。
凭借每秒 30 个令牌的速度,AMD 用户可以访问强大的数据中心级模型。Ryzen AI MAX+ 平台的带宽与 GPT-OSS 120B 中创新的混合专家架构相结合,进一步提升了性能。得益于其强大的内存,用户还可以受益于该模型的模型上下文协议 (MCP) 实现。值得注意的是,使用 AMD Ryzen AI 300 系列处理器的用户还可以充分利用较小的 20B 模型。
为了使 GPT-OSS 20B 模型获得最佳性能,建议用户使用 AMD Radeon 9070 XT 16GB 显卡。此配置不仅提供卓越的速度,还展现出令人印象深刻的首次令牌时间 (TTFT) 优势,尤其是在计算密集型场景中使用模型上下文协议 (MCP) 实现时。
如何在 AMD 硬件上体验 OpenAI 的 GPT-OSS 120B 和 20B 模型
- 下载并安装最新的 AMD 软件:Adrenalin Edition 25.8.1 WHQL 驱动程序或更高版本。请注意,旧版驱动程序可能会影响性能和兼容性。
- 对于拥有支持 AMD Ryzen AI 的计算机的用户,请导航至桌面并选择 AMD 软件:Adrenalin Edition >“性能”选项卡 >“调优”选项卡 >“可变显存”。请根据附表中列出的规格设置 VGM。如果您使用的是 AMD Radeon 显卡,则可以跳过此步骤。
- 在您的系统上安装 LM Studio。
- 出现提示时,选择跳过入职流程。
- 在应用程序中搜索“gpt-oss”。你应该会找到一个前缀为“LM Studio 社区”的选项。根据你的硬件兼容性,选择 20B 或 120B 版本。
- 访问 LM Studio 内的聊天选项卡。
- 使用下拉菜单选择所需的 OpenAI 模型,确保选中“手动加载参数”。
- 将“GPU Offload”滑块调整到最大设置并启用记住设置选项。
- 点击加载按钮。请注意,加载 120B 模型可能需要一些时间,并且由于模型尺寸较大,加载进度条可能会卡住。
- 通过提示开始与模型互动!

AMD 还发布了 OpenAI GPT-OSS 模型的支持列表。其 Ryzen AI MAX+ 395 是唯一能够运行 120B 模型的芯片。相比之下,其他显卡,例如 Radeon RX 9000、Radeon AI PRO R9000 和 Radeon RX 7000,均配备至少 16 GB 内存,可以轻松处理 GPT-OSS 20B 模型。
发表回复