
Niedawno firma OpenAI poczyniła znaczący krok naprzód, prezentując modele o otwartej konstrukcji. Jest to znaczący krok na rynku zdominowanym w dużej mierze przez wiodące chińskie firmy zajmujące się sztuczną inteligencją.
Modele Open-Weight firmy OpenAI przewyższają chińskie odpowiedniki w kluczowych obszarach
Amerykańskie firmy technologiczne zaczynają wdrażać strategie od dawna stosowane przez ich chińskich odpowiedników, szczególnie w zakresie integracji frameworków open source z dużymi modelami językowymi (LLM).Ta zmiana jest zgodna z priorytetami określonymi w planie działania na rzecz sztucznej inteligencji (AI) byłego prezydenta Trumpa, który podkreślał znaczenie modeli AI typu open source. W rezultacie OpenAI wprowadziło serię gpt-oss, stanowiącą pierwszy zestaw modeli o otwartej strukturze od czasu GPT-2, dostępnych w dwóch konfiguracjach: gpt-oss-20b i gpt-oss-120b.
Analizując specyfikację techniczną tych nowych modeli, gpt-oss-20b może pochwalić się imponującą liczbą 21 miliardów parametrów i wykorzystuje architekturę transformatora Mixed Experts (MoE).Oferuje również obszerne okno kontekstowe, obejmujące do 131 072 tokenów, co czyni go kompatybilnym z platformami 16 GB pamięci VRAM i umożliwia wydajną pracę na większości procesorów graficznych klasy konsumenckiej. Z kolei większy gpt-oss-120b, oferujący imponującą liczbę 117 miliardów parametrów, doskonale radzi sobie z zadaniami wnioskowania, ale wymaga bardziej wydajnej platformy NVIDIA H100 dla optymalnej wydajności.

Co istotne, modele te są dystrybuowane na licencji Apache 2.0, która przyznaje uprawnienia do komercyjnego wykorzystania, modyfikacji i redystrybucji. Ten charakter open source plasuje je na równi z ich chińskimi odpowiednikami. Wkraczając w tę przestrzeń, OpenAI wydaje się strategicznie reagować na postępy chińskich firm zajmujących się sztuczną inteligencją, które od kilku lat rozwijają ekosystemy open source. Poza projektem LLaMA firmy Meta, w Stanach Zjednoczonych do tej pory nie zaobserwowano znaczącego rozwoju głównych modeli open source.
Wraz z wejściem OpenAI na rynek modeli open-weight, pojawiają się oczekiwania dotyczące przyszłych wydań. Porównanie gpt-oss z chińskimi alternatywami pokazuje, że chociaż OpenAI poczyniło godne pochwały postępy, chińskie modele zazwyczaj charakteryzują się większą liczbą parametrów. Na przykład, popularne modele, takie jak DeepSeek V2 i Qwen 3, mogą pochwalić się znacznie większą liczbą parametrów:
Kategoria | GPT‑OSS 120B / 20B | DeepSeek-V2 / R1 | Qwen3 / Qwen2.5 / QwQ |
---|---|---|---|
Organizacja | OpenAI | DeepSeek (Chiny) | Alibaba (Chiny) |
Typ modelu | Rzadki MoE (mieszanka ekspertów) | Rzadki MoE | Gęste i MoE hybrydy |
Parametry całkowite | 120B / 20B | 236B / 67B | 235B / 72B / 32B / inne |
Aktywne parametry | ~5, 1B / ~3, 6B | ~21B / ~6, 7B | ~22B (Qwen3-235B) / ~3B (Qwen3-30B-A3B) |
Okno kontekstowe | 128 tys.tokenów | 128 tys.tokenów | 128 tys.(Qwen3), 32 tys.(Qwen2.5) |
Chociaż całkowita i aktywna liczba parametrów jest istotna, nie są to jedyne czynniki decydujące o wyższości modelu. Niemniej jednak chińscy odpowiednicy mają znaczną przewagę, głównie dzięki wieloletniemu doświadczeniu. Aby ocenić ich wydajność w czasie rzeczywistym, porównano różne testy porównawcze, w tym MMLU (Massive Multitask Language Understanding) i AIME Math. Oceny te zostały przeprowadzone przez Clarifai i ujawniają istotne wnioski:
Zadanie porównawcze | GPT‑OSS‑120B | GLM‑4.5 | Myślenie Qwen‑3 | DeepSeek R1 | Jak K2 |
---|---|---|---|---|---|
MMLU‑Pro (rozumowanie) | ~90, 0% | 84, 6% | 84, 4% | 85, 0% | 81, 1% |
Matematyka AIME (z narzędziami) | ~96, 6–97, 9% | ~91% | ~92, 3% | ~87, 5% | ~49–69% |
GPQA (doktorat z nauk ścisłych) | ~80, 9% | 79, 1% | 81, 1% | 81, 0% | 75, 1% |
SWE‑bench (kodowanie) | 62, 4% | 64, 2% | — | ~65, 8% | ~65, 8% |
TAU‑bench (Agenci) | ~67, 8% | 79, 7% | ~67, 8% | ~63, 9% | ~70, 6% |
BFCL‑v3 (wywoływanie funkcji) | ~67–68% | 77, 8% | 71, 9% | 37% | — |
Wyniki wyraźnie pokazują, że gpt-oss przoduje w zadaniach rozumowania i matematyki, co czyni go poważnym konkurentem w swojej grupie. Ponadto, w porównaniu z wieloma gęstymi modelami, charakteryzuje się mniejszym aktywnym śladem parametrów, co czyni go bardziej ekonomiczną opcją dla użytkowników poszukujących lokalnych rozwiązań AI. Jednak testy porównawcze wskazują, że w przypadku zadań agentowych i możliwości wielojęzycznych model gpt-oss-120b nadal ustępuje niektórym chińskim alternatywom, pozostając jednocześnie silnym konkurentem na rynku.
Pojawienie się modeli o otwartej strukturze ma kluczowe znaczenie dla branży sztucznej inteligencji (AI), ponieważ sprzyjają one tworzeniu bardziej inkluzywnego ekosystemu. Dzięki tej inicjatywie OpenAI ma potencjał, aby wzmocnić obecność w USA na arenie, na której wcześniej dominowały organizacje chińskie. Ten kamień milowy prawdopodobnie przyniesie satysfakcję Samowi Altmanowi i zespołowi OpenAI w ich zmaganiach z tym konkurencyjnym krajobrazem.
Dodaj komentarz