USA wprowadzają GPT-OSS: nowość w nowoczesnym modelu open source – jak wypada w porównaniu z chińskimi alternatywami?

USA wprowadzają GPT-OSS: nowość w nowoczesnym modelu open source – jak wypada w porównaniu z chińskimi alternatywami?

Niedawno firma OpenAI poczyniła znaczący krok naprzód, prezentując modele o otwartej konstrukcji. Jest to znaczący krok na rynku zdominowanym w dużej mierze przez wiodące chińskie firmy zajmujące się sztuczną inteligencją.

Modele Open-Weight firmy OpenAI przewyższają chińskie odpowiedniki w kluczowych obszarach

Amerykańskie firmy technologiczne zaczynają wdrażać strategie od dawna stosowane przez ich chińskich odpowiedników, szczególnie w zakresie integracji frameworków open source z dużymi modelami językowymi (LLM).Ta zmiana jest zgodna z priorytetami określonymi w planie działania na rzecz sztucznej inteligencji (AI) byłego prezydenta Trumpa, który podkreślał znaczenie modeli AI typu open source. W rezultacie OpenAI wprowadziło serię gpt-oss, stanowiącą pierwszy zestaw modeli o otwartej strukturze od czasu GPT-2, dostępnych w dwóch konfiguracjach: gpt-oss-20b i gpt-oss-120b.

Analizując specyfikację techniczną tych nowych modeli, gpt-oss-20b może pochwalić się imponującą liczbą 21 miliardów parametrów i wykorzystuje architekturę transformatora Mixed Experts (MoE).Oferuje również obszerne okno kontekstowe, obejmujące do 131 072 tokenów, co czyni go kompatybilnym z platformami 16 GB pamięci VRAM i umożliwia wydajną pracę na większości procesorów graficznych klasy konsumenckiej. Z kolei większy gpt-oss-120b, oferujący imponującą liczbę 117 miliardów parametrów, doskonale radzi sobie z zadaniami wnioskowania, ale wymaga bardziej wydajnej platformy NVIDIA H100 dla optymalnej wydajności.

OpenAI pozyskuje 8, 3 miliarda dolarów funduszy
Źródła obrazów: OpenAI

Co istotne, modele te są dystrybuowane na licencji Apache 2.0, która przyznaje uprawnienia do komercyjnego wykorzystania, modyfikacji i redystrybucji. Ten charakter open source plasuje je na równi z ich chińskimi odpowiednikami. Wkraczając w tę przestrzeń, OpenAI wydaje się strategicznie reagować na postępy chińskich firm zajmujących się sztuczną inteligencją, które od kilku lat rozwijają ekosystemy open source. Poza projektem LLaMA firmy Meta, w Stanach Zjednoczonych do tej pory nie zaobserwowano znaczącego rozwoju głównych modeli open source.

Wraz z wejściem OpenAI na rynek modeli open-weight, pojawiają się oczekiwania dotyczące przyszłych wydań. Porównanie gpt-oss z chińskimi alternatywami pokazuje, że chociaż OpenAI poczyniło godne pochwały postępy, chińskie modele zazwyczaj charakteryzują się większą liczbą parametrów. Na przykład, popularne modele, takie jak DeepSeek V2 i Qwen 3, mogą pochwalić się znacznie większą liczbą parametrów:

Kategoria GPT‑OSS 120B / 20B DeepSeek-V2 / R1 Qwen3 / Qwen2.5 / QwQ
Organizacja OpenAI DeepSeek (Chiny) Alibaba (Chiny)
Typ modelu Rzadki MoE (mieszanka ekspertów) Rzadki MoE Gęste i MoE hybrydy
Parametry całkowite 120B / 20B 236B / 67B 235B / 72B / 32B / inne
Aktywne parametry ~5, 1B / ~3, 6B ~21B / ~6, 7B ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B)
Okno kontekstowe 128 tys.tokenów 128 tys.tokenów 128 tys.(Qwen3), 32 tys.(Qwen2.5)

Chociaż całkowita i aktywna liczba parametrów jest istotna, nie są to jedyne czynniki decydujące o wyższości modelu. Niemniej jednak chińscy odpowiednicy mają znaczną przewagę, głównie dzięki wieloletniemu doświadczeniu. Aby ocenić ich wydajność w czasie rzeczywistym, porównano różne testy porównawcze, w tym MMLU (Massive Multitask Language Understanding) i AIME Math. Oceny te zostały przeprowadzone przez Clarifai i ujawniają istotne wnioski:

Zadanie porównawcze GPT‑OSS‑120B GLM‑4.5 Myślenie Qwen‑3 DeepSeek R1 Jak K2
MMLU‑Pro (rozumowanie) ~90, 0% 84, 6% 84, 4% 85, 0% 81, 1%
Matematyka AIME (z narzędziami) ~96, 6–97, 9% ~91% ~92, 3% ~87, 5% ~49–69%
GPQA (doktorat z nauk ścisłych) ~80, 9% 79, 1% 81, 1% 81, 0% 75, 1%
SWE‑bench (kodowanie) 62, 4% 64, 2% ~65, 8% ~65, 8%
TAU‑bench (Agenci) ~67, 8% 79, 7% ~67, 8% ~63, 9% ~70, 6%
BFCL‑v3 (wywoływanie funkcji) ~67–68% 77, 8% 71, 9% 37%

Wyniki wyraźnie pokazują, że gpt-oss przoduje w zadaniach rozumowania i matematyki, co czyni go poważnym konkurentem w swojej grupie. Ponadto, w porównaniu z wieloma gęstymi modelami, charakteryzuje się mniejszym aktywnym śladem parametrów, co czyni go bardziej ekonomiczną opcją dla użytkowników poszukujących lokalnych rozwiązań AI. Jednak testy porównawcze wskazują, że w przypadku zadań agentowych i możliwości wielojęzycznych model gpt-oss-120b nadal ustępuje niektórym chińskim alternatywom, pozostając jednocześnie silnym konkurentem na rynku.

Pojawienie się modeli o otwartej strukturze ma kluczowe znaczenie dla branży sztucznej inteligencji (AI), ponieważ sprzyjają one tworzeniu bardziej inkluzywnego ekosystemu. Dzięki tej inicjatywie OpenAI ma potencjał, aby wzmocnić obecność w USA na arenie, na której wcześniej dominowały organizacje chińskie. Ten kamień milowy prawdopodobnie przyniesie satysfakcję Samowi Altmanowi i zespołowi OpenAI w ich zmaganiach z tym konkurencyjnym krajobrazem.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *