
NVIDIA hat in Zusammenarbeit mit OpenAI die neueste Ergänzung seiner KI-Modellfamilie vorgestellt: die gpt-oss-Familie. Diese Version bietet Verbrauchern Zugang zu bahnbrechender KI-Technologie und nutzt die außergewöhnlichen Verarbeitungskapazitäten von RTX-GPUs.
NVIDIA hat heute seine Partnerschaft mit OpenAI detailliert beschrieben. Dies stellt einen bedeutenden Fortschritt dar, der es hochmoderner künstlicher Intelligenz ermöglicht, schnell auf RTX-betriebenen PCs und Workstations zu arbeiten – Ressourcen, die bisher auf Cloud-Rechenzentren beschränkt waren.
Jensen Huang, Gründer und CEO von NVIDIA, betonte die Bedeutung dieses Schritts für die Technologiebranche:
„OpenAI hat der Welt gezeigt, was auf NVIDIA KI aufbaut – und treibt nun Innovationen im Bereich Open-Source-Software voran“, sagte Jensen Huang.„Die gpt-oss-Modelle ermöglichen es Entwicklern weltweit, auf dieser hochmodernen Open-Source-Basis aufzubauen und so die Technologieführerschaft der USA im Bereich KI zu stärken – und das alles auf der weltweit größten KI-Recheninfrastruktur.“
Diese Markteinführung stellt einen entscheidenden Moment dar und läutet eine Ära schnellerer und intelligenterer On-Device-KI ein, die auf den beeindruckenden Fähigkeiten der GeForce RTX- und PRO-GPUs basiert. Es werden zwei Versionen des Modells eingeführt, die ein breites Spektrum an Benutzern ansprechen:
- Modell gpt-oss-20b: Dieses Modell ist auf optimale Leistung auf NVIDIA RTX AI-PCs mit mindestens 16 GB VRAM zugeschnitten und kann bei Ausführung auf einer RTX 5090-GPU bis zu 250 Token pro Sekunde verarbeiten.
- Modell gpt-oss-120b: Dieses für professionelle Umgebungen konzipierte Modell wird von NVIDIA RTX PRO-GPUs unterstützt, wodurch die Verarbeitungskapazitäten maximiert werden.

Die gpt-oss-Modelle nutzen erstmals die MXFP4-Präzision auf NVIDIA RTX, einer hochmodernen Trainingsmethode, die die Modellqualität verbessert, ohne die Leistung im Vergleich zu älteren Techniken zu beeinträchtigen. Beide Modelle verfügen über eine beeindruckende Kontextlängenkapazität von bis zu 131.072 Token, eine der umfangreichsten für lokale Inferenz. Sie verfügen über eine flexible MoE-Architektur (Mixtur of Experts), die Denkkettenfunktionen ermöglicht und die Befolgung von Anweisungen sowie die Nutzung von Tools unterstützt.
Die RTX AI Garage dieser Woche konzentriert sich darauf, wie KI-Entwickler und -Enthusiasten die neuen OpenAI-Modelle auf NVIDIA RTX-GPUs effektiv nutzen können:
Schreibe einen Kommentar