
Niedawno wprowadzony na rynek superukład NVIDIA Blackwell AI, znany jako GB300, znacząco przewyższa swojego poprzednika, procesor graficzny H100, dzięki zoptymalizowaniu paralelizmu tensorowego, co przekłada się na znacznie większą wydajność.
NVIDIA GB300: ulepszona pamięć i przepustowość zapewniające wyższą przepustowość niż H100
Wprowadzenie superchipów AI opartych na technologii Blackwell firmy NVIDIA oznacza przełomowy postęp w technologii GPU. GB300 to jak dotąd najbardziej zaawansowany produkt firmy NVIDIA, charakteryzujący się znaczącym wzrostem możliwości obliczeniowych, a także zwiększoną pojemnością pamięci i przepustowością. Te udoskonalenia są kluczowe dla obsługi wymagających zadań AI. Niedawny test porównawczy przeprowadzony przez firmę CoreWeave ilustruje potencjał GB300 — osiąga on znacznie wyższą przepustowość dzięki redukcji paralelizmu tensorowego.
W testach przeprowadzonych przez CoreWeave z wykorzystaniem modelu wnioskowania DeepSeek R1, złożonego frameworka AI, ujawniła się istotna różnica między tymi dwiema platformami. Uruchomienie modelu DeepSeek R1 wymagało klastra 16 procesorów graficznych NVIDIA H100, podczas gdy do wykonania tego samego zadania wystarczyły zaledwie cztery procesory graficzne GB300 działające w infrastrukturze NVIDIA GB300 NVL72. Co godne uwagi, system GB300 jest w stanie zapewnić 6-krotnie większą przepustowość na procesor graficzny, co podkreśla jego lepszą wydajność w złożonych zadaniach AI w porównaniu z H100.

Wyniki wskazują na znaczącą przewagę GB300, który wykorzystuje uproszczoną konfigurację 4-kierunkowego paralelizmu tensorowego. To ograniczenie paralelizmu usprawnia komunikację między procesorami graficznymi, a większa pojemność pamięci i przepustowość przyczyniają się do znacznej poprawy wydajności. Platforma GB300 NVL72 korzysta z połączeń NVLink i NVSwitch o dużej przepustowości, co ułatwia szybką wymianę danych między procesorami graficznymi.
Ten postęp technologiczny przekłada się na wymierne korzyści dla użytkowników, umożliwiając szybsze generowanie tokenów i mniejsze opóźnienia, co przekłada się na efektywniejsze skalowanie operacji AI w środowiskach korporacyjnych. CoreWeave podkreślił wyjątkową specyfikację systemu NVIDIA GB300 NVL72 o konstrukcji rack, który oferuje imponującą pojemność pamięci 37 TB (z możliwością obsługi do 40 TB), idealnie nadającą się do zarządzania dużymi, złożonymi modelami AI, uzupełnioną o możliwości połączeń, które osiągają przepustowość pamięci do 130 TB/s.

Ostatecznie NVIDIA GB300 oferuje nie tylko imponującą liczbę teraflopów (TFLOP), ale kładzie nacisk na wydajność operacyjną. Minimalizując paralelizm tensorowy, GB300 redukuje obciążenie komunikacyjne między procesorami graficznymi (GPU), które zazwyczaj utrudnia procesy szkolenia i wnioskowania w zakresie sztucznej inteligencji na dużą skalę. W rezultacie firmy mogą teraz osiągnąć znacznie wyższą przepustowość przy mniejszej liczbie procesorów graficznych (GPU), co przekłada się na redukcję kosztów i lepszą skalowalność wdrożeń sztucznej inteligencji (AI).
Źródło wiadomości: CoreWeave
Dodaj komentarz