Projekt Battlematrix firmy Intel z procesorami graficznymi Arc Pro B60 osiąga czterokrotnie większą wydajność w przeliczeniu na dolara w porównaniu z NVIDIA w testach MLPerf v5.1

Projekt Battlematrix firmy Intel z procesorami graficznymi Arc Pro B60 osiąga czterokrotnie większą wydajność w przeliczeniu na dolara w porównaniu z NVIDIA w testach MLPerf v5.1

Firma Intel opublikowała nowe wyniki testów porównawczych swojej stacji roboczej Project Battlematrix, wyposażonej w procesory graficzne Arc Pro B60, w ramach ewaluacji MLPerf Inference v5.1.

Wgląd w wydajność: Intel Project Battlematrix z procesorami graficznymi Arc Pro B60 i procesorami Xeon 6

Informacja prasowa: W ramach ważnego wydarzenia, MLCommons zaprezentował najnowsze testy porównawcze MLPerf Inference v5.1, prezentujące zaawansowane układy GPU firmy Intel. Układy te wykorzystują procesory Intel Xeon w połączeniu z rdzeniami P i układami GPU Arc Pro B60, określane zbiorczo jako Project Battlematrix.

Testy porównawcze wskazują, że Intel Arc Pro B60 osiąga nawet 1, 25-krotnie lepszą wydajność w przeliczeniu na dolara w teście Llama 8B i wykazuje imponującą, nawet czterokrotną przewagę wydajnościową nad kartami NVIDIA RTX Pro 6000 i L40S. Ten rekord wydajności stanowi znaczący krok w kierunku udostępnienia zaawansowanych rozwiązań wnioskowania AI głównie za pośrednictwem sprzętu opartego wyłącznie na technologii Intel.

Znaczenie tego rozwoju

Dla profesjonalistów wymagających solidnych platform wnioskowania AI, wybór opcji był wyraźnie ograniczony. Potrzeba rozwiązania, które zapewniłoby doskonałą wydajność wnioskowania, a jednocześnie zapewniło prywatność danych – i pozwoliło uniknąć wysokich opłat abonamentowych związanych z zastrzeżonymi modelami AI – stała się coraz większym problemem. Inicjatywa Project Battlematrix ma na celu wypełnienie tej luki poprzez dostarczenie kompleksowego rozwiązania, które umożliwi efektywne wdrażanie dużych modeli językowych (LLM).

Nowe systemy GPU firmy Intel zostały zaprojektowane nie tylko z myślą o obsłudze nowoczesnych zadań sztucznej inteligencji, ale także o zapewnieniu kompleksowej platformy wnioskowania, łączącej niezawodny sprzęt z przetestowanymi frameworkami programowymi. Nacisk na doświadczenie użytkownika jest widoczny, ponieważ systemy te są wyposażone w nowe, konteneryzowane rozwiązanie zoptymalizowane pod kątem środowisk Linux, zapewniające wyjątkową wydajność wnioskowania dzięki skalowaniu wielu GPU i transferom danych typu punkt-punkt przez PCIe.

Istotna rola procesorów w systemach AI

Procesory (CPU) pozostają centralnym elementem architektury systemów AI, pełniąc funkcję kluczowego koordynatora przetwarzania, transmisji i ogólnego zarządzania systemem. W ciągu ostatnich czterech lat Intel konsekwentnie poprawiał wydajność swoich procesorów w aplikacjach AI. Te postępy uczyniły z procesorów Intel Xeon preferowany wybór do efektywnego zarządzania obciążeniami AI w systemach opartych na GPU.

Dążenie firmy Intel do doskonałości jest dodatkowo podkreślone przez jej status jedynego dostawcy, który przesłał wyniki dotyczące procesorów serwerowych do MLPerf, co pokazuje jej zaangażowanie w doskonalenie możliwości wnioskowania AI zarówno na platformach obliczeniowych, jak i akceleratorowych. Co godne uwagi, wprowadzenie procesora Intel Xeon 6 z rdzeniami P przyniosło 1, 9-krotny wzrost wydajności, generacja na generację, w najnowszych testach MLPerf Inference v5.1.

Źródło i obrazy

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *