CoreWeave osiąga 6-krotną przepustowość GPU w porównaniu z NVIDIA GB300 NVL72 i H100 w DeepSeek R1

CoreWeave osiąga 6-krotną przepustowość GPU w porównaniu z NVIDIA GB300 NVL72 i H100 w DeepSeek R1

Niedawno wprowadzony na rynek superukład NVIDIA Blackwell AI, znany jako GB300, znacząco przewyższa swojego poprzednika, procesor graficzny H100, dzięki zoptymalizowaniu paralelizmu tensorowego, co przekłada się na znacznie większą wydajność.

NVIDIA GB300: ulepszona pamięć i przepustowość zapewniające wyższą przepustowość niż H100

Wprowadzenie superchipów AI opartych na technologii Blackwell firmy NVIDIA oznacza przełomowy postęp w technologii GPU. GB300 to jak dotąd najbardziej zaawansowany produkt firmy NVIDIA, charakteryzujący się znaczącym wzrostem możliwości obliczeniowych, a także zwiększoną pojemnością pamięci i przepustowością. Te udoskonalenia są kluczowe dla obsługi wymagających zadań AI. Niedawny test porównawczy przeprowadzony przez firmę CoreWeave ilustruje potencjał GB300 — osiąga on znacznie wyższą przepustowość dzięki redukcji paralelizmu tensorowego.

W testach przeprowadzonych przez CoreWeave z wykorzystaniem modelu wnioskowania DeepSeek R1, złożonego frameworka AI, ujawniła się istotna różnica między tymi dwiema platformami. Uruchomienie modelu DeepSeek R1 wymagało klastra 16 procesorów graficznych NVIDIA H100, podczas gdy do wykonania tego samego zadania wystarczyły zaledwie cztery procesory graficzne GB300 działające w infrastrukturze NVIDIA GB300 NVL72. Co godne uwagi, system GB300 jest w stanie zapewnić 6-krotnie większą przepustowość na procesor graficzny, co podkreśla jego lepszą wydajność w złożonych zadaniach AI w porównaniu z H100.

Wykres porównawczy: 4 procesory graficzne GB300 przewyższają 16 procesorów graficznych H100 pod względem przepustowości o 6, 5x tokenów/s.
Źródło obrazu: CoreWeave

Wyniki wskazują na znaczącą przewagę GB300, który wykorzystuje uproszczoną konfigurację 4-kierunkowego paralelizmu tensorowego. To ograniczenie paralelizmu usprawnia komunikację między procesorami graficznymi, a większa pojemność pamięci i przepustowość przyczyniają się do znacznej poprawy wydajności. Platforma GB300 NVL72 korzysta z połączeń NVLink i NVSwitch o dużej przepustowości, co ułatwia szybką wymianę danych między procesorami graficznymi.

Ten postęp technologiczny przekłada się na wymierne korzyści dla użytkowników, umożliwiając szybsze generowanie tokenów i mniejsze opóźnienia, co przekłada się na efektywniejsze skalowanie operacji AI w środowiskach korporacyjnych. CoreWeave podkreślił wyjątkową specyfikację systemu NVIDIA GB300 NVL72 o konstrukcji rack, który oferuje imponującą pojemność pamięci 37 TB (z możliwością obsługi do 40 TB), idealnie nadającą się do zarządzania dużymi, złożonymi modelami AI, uzupełnioną o możliwości połączeń, które osiągają przepustowość pamięci do 130 TB/s.

Specyfikacja NVIDIA GB300 NVL72: procesory GPU, procesory CPU, przepustowość pamięci, wydajność rdzeni Tensor.

Ostatecznie NVIDIA GB300 oferuje nie tylko imponującą liczbę teraflopów (TFLOP), ale kładzie nacisk na wydajność operacyjną. Minimalizując paralelizm tensorowy, GB300 redukuje obciążenie komunikacyjne między procesorami graficznymi (GPU), które zazwyczaj utrudnia procesy szkolenia i wnioskowania w zakresie sztucznej inteligencji na dużą skalę. W rezultacie firmy mogą teraz osiągnąć znacznie wyższą przepustowość przy mniejszej liczbie procesorów graficznych (GPU), co przekłada się na redukcję kosztów i lepszą skalowalność wdrożeń sztucznej inteligencji (AI).

Źródło wiadomości: CoreWeave

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *