AMD treibt OpenAIs GPT-OSS 20B- und 120B-KI-Modelle auf Ryzen und Radeon an: Ryzen AI MAX+ 395 ist der einzige KI-Chip, der das 120B-Modell mit einem außergewöhnlichen 128-GB-Speicherpool unterstützt

AMD treibt OpenAIs GPT-OSS 20B- und 120B-KI-Modelle auf Ryzen und Radeon an: Ryzen AI MAX+ 395 ist der einzige KI-Chip, der das 120B-Modell mit einem außergewöhnlichen 128-GB-Speicherpool unterstützt

OpenAI hat seine neuesten KI-Modelle GPT-OSS 20B und GPT-OSS 120B vorgestellt, und AMD ist führend bei dieser Innovation. Das Unternehmen kündigte die vollständige Unterstützung dieser Modelle durch seine Ryzen AI MAX- und Radeon-GPUs an, sodass Benutzer erweiterte Funktionen und Leistungsverbesserungen nutzen können.

AMDs Ryzen AI MAX+ 395 APU: Ein Game Changer für OpenAIs GPT-OSS 120B

Mit der Einführung der neuen KI-Modelle von OpenAI positioniert AMD seine Ryzen AI-CPUs und Radeon-GPUs als die Hardware der Wahl für optimale Leistung. Insbesondere die Ryzen AI MAX+ 395 APU wird als exklusiver Chip hervorgehoben, der das GPT-OSS 120B-Modell nativ ausführen kann und gleichzeitig Day-0-Support bietet, sodass Benutzer die Modelle sofort über LM Studio erleben können.

AMD Ryzen AI Max+ nutzt OpenAIs GPT-OSS 120B mit MCP-Unterstützung für verbesserte Verarbeitung.

Was genau sind diese neuen Modelle? Die GPT-OSS-Serie umfasst Open-Weight-Modelle, die umfassendes Reasoning und agentenbasierte Aufgaben bewältigen. Während viele KI-Chips und PCs die 20-B-Version bewältigen können, erfordert das anspruchsvollere 120-B-Modell erhebliche Hardwareressourcen. Hier glänzen AMDs Ryzen AI MAX- und Strix Halo-Architekturen mit bis zu 128 GB Arbeitsspeicher, der speziell auf diese fortschrittliche KI-Funktionalität zugeschnitten ist.

Erkunden Sie erweiterte KI-Funktionen mit AMD-Systemen.

Die GGML-konvertierten MXFP4-Gewichte benötigen ca.61 GB VRAM und passen nahtlos in den 96 GB dedizierten Grafikspeicher des AMD Ryzen AI MAX+ 395 Prozessors. Benutzer müssen sicherstellen, dass ihre Treiberversion AMD Software: Adrenalin Edition 25.8.1 WHQL oder höher ist, um diese Funktion effizient nutzen zu können.

Mit Geschwindigkeiten von bis zu 30 Token pro Sekunde steht AMD-Anwendern ein leistungsstarkes Modell in Rechenzentrumsqualität zur Verfügung. Diese Leistung wird durch die Bandbreite der Ryzen AI MAX+ Plattform in Verbindung mit der innovativen Mixture-of-Experts-Architektur des GPT-OSS 120B zusätzlich gesteigert. Dank des umfangreichen Speichers profitieren Anwender mit diesem Modell zudem von Model Context Protocol (MCP)-Implementierungen. Insbesondere Anwender mit AMD Ryzen AI 300-Prozessoren können das kleinere 20B-Modell voll ausnutzen.

Für optimale Leistung mit dem GPT-OSS 20B-Modell wird die Verwendung der AMD Radeon 9070 XT 16GB-Grafikkarte empfohlen. Diese Konfiguration bietet nicht nur außergewöhnliche Geschwindigkeiten, sondern auch beeindruckende Time-to-First-Token-Vorteile (TTFT), insbesondere bei der Arbeit mit Model Context Protocol (MCP)-Implementierungen in rechenintensiven Szenarien.

So erleben Sie die GPT-OSS-Modelle 120B und 20B von OpenAI auf AMD-Hardware

  1. Laden Sie die neueste AMD Software herunter und installieren Sie sie: Adrenalin Edition 25.8.1 WHQL-Treiber oder höher. Beachten Sie, dass ältere Treiber die Leistung und Kompatibilität beeinträchtigen können.
  2. Benutzer mit einem AMD Ryzen AI-fähigen Rechner navigieren zu ihrem Desktop und wählen AMD Software: Adrenalin Edition > Registerkarte Leistung > Registerkarte Tuning > Variabler Grafikspeicher.Stellen Sie den VGM gemäß den Spezifikationen in der beigefügten Tabelle ein. Wenn Sie eine AMD Radeon-Grafikkarte verwenden, können Sie diesen Schritt überspringen.
  3. Installieren Sie LM Studio auf Ihrem System.
  4. Wenn Sie dazu aufgefordert werden, können Sie den Onboarding-Prozess überspringen.
  5. Suchen Sie in der Anwendung nach „gpt-oss“.Sie sollten eine Option mit dem Präfix „LM Studio Community“ finden. Wählen Sie je nach Hardwarekompatibilität entweder die 20B- oder die 120B-Variante.
  6. Greifen Sie in LM Studio auf die Registerkarte „Chat“ zu.
  7. Wählen Sie über das Dropdown-Menü das gewünschte OpenAI-Modell aus und aktivieren Sie dabei unbedingt „Parameter manuell laden“.
  8. Stellen Sie den Schieberegler „GPU Offload“ auf die maximale Einstellung und aktivieren Sie die Option „Einstellungen merken“.
  9. Klicken Sie auf die Schaltfläche „Laden“.Beachten Sie, dass das Laden des 120B-Modells einige Zeit dauern kann und der Ladebalken aufgrund der Größe des Modells möglicherweise stockt.
  10. Beginnen Sie, sich mithilfe von Eingabeaufforderungen mit dem Modell zu beschäftigen!
AMD-Produktsupportmatrix mit detaillierter Kompatibilität mit OpenAI-Modellen.

AMD hat außerdem eine Supportliste für die GPT-OSS-Modelle von OpenAI veröffentlicht. Der Ryzen AI MAX+ 395 ist der einzige Chip, der das 120B-Modell ausführen kann. Andere Optionen wie die Radeon RX 9000, Radeon AI PRO R9000 und Radeon RX 7000 GPUs, alle mit mindestens 16 GB Speicher ausgestattet, können die GPT-OSS 20B-Modelle hingegen problemlos verarbeiten.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert