
Vor Kurzem hat OpenAI mit der Einführung offener Gewichtsmodelle einen bedeutenden Schritt gemacht, ein bemerkenswerter Schritt in einem Markt, der weitgehend von führenden chinesischen KI-Unternehmen dominiert wird.
OpenAIs Open-Weight-Modelle übertreffen chinesische Pendants in Schlüsselbereichen
Amerikanische Technologieunternehmen beginnen, Strategien zu übernehmen, die ihre chinesischen Kollegen schon lange nutzen, insbesondere bei der Integration von Open-Source-Frameworks mit großen Sprachmodellen (LLMs).Dieser Wandel steht im Einklang mit den Prioritäten des KI-Aktionsplans des ehemaligen Präsidenten Trump, der die Bedeutung von Open-Source-KI-Modellen betonte. Daher hat OpenAI seine gpt-oss-Reihe eingeführt, die den ersten Satz offener Modelle seit GPT-2 darstellt und in zwei Konfigurationen verfügbar ist: gpt-oss-20b und gpt-oss-120b.
Betrachtet man die technischen Spezifikationen dieser neuen Modelle, so verfügt der gpt-oss-20b über beeindruckende 21 Milliarden Parameter und nutzt eine Mix-of-Experts-Transformer-Architektur (MoE).Er bietet außerdem ein umfangreiches Kontextfenster von bis zu 131.072 Tokens und ist somit mit 16-GB-VRAM-Plattformen kompatibel, sodass er auf den meisten Consumer-GPUs effizient läuft. Der größere gpt-oss-120b hingegen bietet robuste 117 Milliarden Parameter und eignet sich hervorragend für logische Schlussfolgerungen, benötigt für optimale Leistung jedoch eine leistungsstärkere NVIDIA H100-Plattform.

Bezeichnenderweise werden diese Modelle unter der Apache 2.0-Lizenz vertrieben, die die kommerzielle Nutzung, Modifikation und Weiterverbreitung erlaubt. Dieser Open-Source-Charakter positioniert sie ähnlich wie ihre chinesischen Pendants. OpenAI scheint mit seinem Einstieg in diesen Bereich strategisch auf die Fortschritte chinesischer KI-Unternehmen zu reagieren, die seit Jahren Open-Source-Ökosysteme entwickeln. Abgesehen von Metas LLaMA gab es in den USA bisher wenig Bewegung bei gängigen Open-Source-Modellen.
Mit OpenAIs Vorstoß in den Bereich der Open-Weight-Modelle gibt es Erwartungen an zukünftige Versionen. Ein Vergleich von gpt-oss mit chinesischen Alternativen zeigt, dass OpenAI zwar beachtliche Fortschritte gemacht hat, chinesische Modelle jedoch typischerweise eine höhere Parameteranzahl aufweisen. Bekannte Modelle wie DeepSeek V2 und Qwen 3 weisen beispielsweise deutlich höhere Parameterzahlen auf:
Kategorie | GPT‑OSS 120B / 20B | DeepSeek-V2 / R1 | Qwen3 / Qwen2.5 / QwQ |
---|---|---|---|
Organisation | OpenAI | DeepSeek (China) | Alibaba (China) |
Modelltyp | Sparse MoE (Expertenmischung) | Spärliches MoE | Dichte & MoE-Hybride |
Gesamtparameter | 120B / 20B | 236B / 67B | 235B / 72B / 32B / andere |
Aktive Parameter | ~5, 1 Mrd./ ~3, 6 Mrd. | ~21 Mrd./ ~6, 7 Mrd. | ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B) |
Kontextfenster | 128.000 Token | 128.000 Token | 128K (Qwen3), 32K (Qwen2.5) |
Obwohl die Gesamtzahl und die Anzahl der aktiven Parameter wichtig sind, sind sie nicht die einzigen Faktoren, die die Überlegenheit eines Modells bestimmen. Dennoch haben chinesische Konkurrenten einen erheblichen Vorteil, vor allem aufgrund ihrer langjährigen Erfahrung. Um ihre Echtzeit-Leistung zu bewerten, wurden verschiedene Benchmarks, darunter MMLU (Massive Multitask Language Understanding) und AIME Math, verglichen. Diese von Clarifai durchgeführten Bewertungen liefern bemerkenswerte Erkenntnisse:
Benchmark-Aufgabe | GPT‑OSS‑120B | GLM‑4.5 | Qwen‑3 Denken | DeepSeek R1 | Wie K2 |
---|---|---|---|---|---|
MMLU‑Pro (Argumentation) | ~90, 0 % | 84, 6 % | 84, 4 % | 85, 0 % | 81, 1 % |
AIME Math (mit Tools) | ~96, 6–97, 9 % | ~91 % | ~92, 3 % | ~87, 5 % | ~49–69 % |
GPQA (PhD Science) | ~80, 9 % | 79, 1 % | 81, 1 % | 81, 0 % | 75, 1 % |
SWE‑bench (Codierung) | 62, 4 % | 64, 2 % | — | ~65, 8 % | ~65, 8 % |
TAU‑Bench (Agenten) | ~67, 8 % | 79, 7 % | ~67, 8 % | ~63, 9 % | ~70, 6 % |
BFCL‑v3 (Funktionsaufruf) | ~67–68 % | 77, 8 % | 71, 9 % | 37 % | — |
Die Ergebnisse zeigen deutlich, dass gpt-oss bei logischem Denken und mathematischen Aufgaben herausragend ist und sich damit als starker Konkurrent innerhalb seiner Vergleichsgruppe erweist. Darüber hinaus weist es im Vergleich zu vielen dichten Modellen einen geringeren aktiven Parameter-Footprint auf, was es zu einer kostengünstigeren Option für Nutzer macht, die lokale KI-Lösungen suchen. Die Benchmarks zeigen jedoch, dass das Modell gpt-oss-120b bei agentenbasierten Aufgaben und mehrsprachigen Funktionen einigen chinesischen Alternativen noch hinterherhinkt, dennoch aber ein starker Konkurrent auf dem Markt bleibt.
Die Entstehung offener Gewichtungsmodelle ist für die KI-Branche von entscheidender Bedeutung, da sie ein integrativeres Ökosystem fördern. Mit dieser Initiative hat OpenAI das Potenzial, die US-Präsenz in einem bisher von chinesischen Organisationen dominierten Bereich zu stärken. Dieser Meilenstein dürfte Sam Altman und dem OpenAI-Team im Kampf um den Titel eine große Freude bereiten.
Schreibe einen Kommentar