
Firma NVIDIA, we współpracy z OpenAI, zaprezentowała najnowszy dodatek do swojego pakietu modeli AI – rodzinę gpt-oss. Ta wersja zapewnia konsumentom dostęp do przełomowej technologii AI, wykorzystującej wyjątkowe możliwości przetwarzania procesorów graficznych RTX.
Firma NVIDIA przedstawiła dziś szczegóły swojej współpracy z OpenAI, co stanowi znaczący krok naprzód umożliwiający najnowocześniejszej sztucznej inteligencji szybkie działanie na komputerach i stacjach roboczych wyposażonych w karty RTX — zasobach, które wcześniej były dostępne wyłącznie w centrach danych w chmurze.
Założyciel i dyrektor generalny firmy NVIDIA, Jensen Huang, podkreślił znaczenie tego kroku dla branży technologicznej:
„OpenAI pokazało światu, co można zbudować na sztucznej inteligencji NVIDIA – a teraz firma ta rozwija innowacje w oprogramowaniu open source” – powiedział Jensen Huang.„Modele gpt-oss pozwalają deweloperom z całego świata budować na tym najnowocześniejszym fundamencie open source, wzmacniając amerykańską pozycję lidera technologicznego w dziedzinie sztucznej inteligencji – a wszystko to w oparciu o największą na świecie infrastrukturę obliczeniową AI”.
Ta premiera to przełomowy moment, zapoczątkowujący erę szybszej i bardziej inteligentnej sztucznej inteligencji (AI) w urządzeniach, opartej na imponujących możliwościach kart graficznych GeForce RTX i PRO. Wprowadzane są dwie wersje modelu, skierowane do szerokiego grona użytkowników:
- Model gpt-oss-20b: Dostosowany do optymalnej wydajności na komputerach NVIDIA RTX AI wyposażonych w co najmniej 16 GB pamięci VRAM. Ten model może przetwarzać do 250 tokenów na sekundę podczas działania na karcie graficznej RTX 5090.
- Model gpt-oss-120b: Zaprojektowany dla środowisk profesjonalnych, ten model jest obsługiwany przez procesory graficzne NVIDIA RTX PRO, maksymalizujące możliwości przetwarzania.

Modele gpt-oss jako pierwsze wykorzystują precyzję MXFP4 na platformie NVIDIA RTX – najnowocześniejszą metodę treningową, która poprawia jakość modelu bez utraty wydajności w porównaniu ze starszymi technikami. Oba modele charakteryzują się imponującą pojemnością kontekstu, sięgającą 131 072 tokenów, co stanowi jedną z największych wartości dostępnych do wnioskowania lokalnego. Charakteryzują się elastyczną architekturą opartą na połączeniu ekspertów (MoE), umożliwiającą tworzenie łańcucha myślowego oraz wspierającą śledzenie instrukcji i korzystanie z narzędzi.
W tym tygodniu w RTX AI Garage skupimy się na tym, w jaki sposób twórcy i entuzjaści sztucznej inteligencji mogą efektywnie wykorzystać nowe modele OpenAI na procesorach graficznych NVIDIA RTX:
Dodaj komentarz