AMD Ryzen AI MAX+ Prozessoren bieten 96 GB Speicher für Consumer-Grafiken und ermöglichen die lokale Ausführung von 128-B-Parameter-LLMs auf PCs

AMD Ryzen AI MAX+ Prozessoren bieten 96 GB Speicher für Consumer-Grafiken und ermöglichen die lokale Ausführung von 128-B-Parameter-LLMs auf PCs

AMD hat mit seinem neuesten Treiber-Update die Edge-KI-Funktionen für PCs deutlich erweitert und ermöglicht Benutzern die Unterstützung großer Sprachmodelle (LLMs).

AMD unterstützt KI-Innovationen für Verbraucher mit der Strix Halo-Plattform

Als führender Akteur der Branche hat AMD mithilfe seiner innovativen XDNA-Engines bemerkenswerte Fortschritte bei der Integration leistungsstarker KI-Computing-Lösungen in Verbrauchersysteme erzielt. Die Accelerated Processing Units (APUs) des Unternehmens, insbesondere die der Strix Point- und Strix Halo-Reihen, zeichnen sich durch außergewöhnliche KI-Fähigkeiten aus. Die neueste Version des Adrenalin Edition 25.8.1-Treibers bietet Unterstützung für LLM-Modelle mit bis zu 128 Milliarden Parametern und ermöglicht so die Nutzung fortschrittlicher KI-Modelle in Verbrauchergeräten, darunter auch Metas hochmoderner Llama 4 Scout.

AMD Ryzen AI: Führende Windows LLM-Unterstützung, 4-Bit- bis 16-Bit-Quantisierung, Thin- und Light-Bereitstellung

Eines der herausragenden Merkmale der AMD-Technologie ist der variable Grafikspeicher (VGM).Damit können Anwender bis zu 96 GB Grafikspeicher der integrierten GPU (iGPU) zuweisen. Diese Funktion ermöglicht die lokale Ausführung umfangreicher KI-Modelle. Beispielsweise arbeitet das Llama-Modell mit einem Mix aus Experten (MoE) und nutzt zur Laufzeit nur 17 Milliarden Parameter. Dadurch können Anwender beeindruckende Transaktionen pro Sekunde (TPS) erreichen, was den LLM zu einem effizienten und hochentwickelten KI-Assistenten macht.

AMD AI Max+ führt bis zu 128 B Parameter aus; Vergleichstabelle zur Speichernutzung pro Modell.

AMDs Fortschritte gehen über die reine Rechenleistung hinaus; auch die Kontextgröße wurde deutlich verbessert. Traditionell unterstützen Consumer-Prozessoren eine Kontextlänge von etwa 4096 Token. AMD hat jedoch eine beeindruckende Kontextlänge von 256.000 Token erreicht, was die Benutzerkontrolle über Arbeitsabläufe deutlich verbessert und eine konstant robuste Leistung gewährleistet. Diese Fortschritte verdeutlichen die rasante Weiterentwicklung der „AI-Compute“-Technologie in PCs und markieren einen bemerkenswerten Wandel in der Branche.

Derzeit ist die Strix Halo-Plattform nur auf einer begrenzten Anzahl von Geräten verfügbar, und die Zugänglichkeit bleibt für viele Verbraucher eine Herausforderung, da einige Systeme über 2.000 US-Dollar kosten. Trotz der höheren Kosten ist AMDs Engagement für die Demokratisierung der KI-Leistung offensichtlich, auch wenn die Anschaffung dieser hochmodernen Geräte eine erhebliche finanzielle Investition erfordert.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert