
Procesory graficzne Blackwell firmy NVIDIA zapewniły sobie pozycję lidera w dziedzinie wydajności wnioskowania AI, co przełożyło się na znacznie wyższą marżę zysku dla firm wykorzystujących tę technologię w porównaniu z konkurencją.
Kompleksowe oprogramowanie i optymalizacje AI firmy NVIDIA: przewaga konkurencyjna nad AMD
Najnowsza analiza Morgan Stanley Research przedstawia szczegółowe porównanie marż zysku i kosztów operacyjnych związanych z obciążeniami wnioskowania AI u różnych dostawców technologii. Wyniki pokazują, że firmy działające jako „fabryki” wnioskowania AI osiągają marże zysku przekraczające 50%, a NVIDIA wyłania się na zdecydowanego lidera.

W badaniu oceniono szereg fabryk sztucznej inteligencji (AI), w szczególności te wymagające mocy 100 MW, wykorzystujące szafy serwerowe od kilku kluczowych graczy w branży, takich jak NVIDIA, Google, AMD, AWS i Huawei. Wśród nich wyróżnia się platforma GPU GB200 NVL72 „Blackwell” firmy NVIDIA, która osiągnęła imponującą marżę zysku na poziomie 77, 6% i szacowany zysk na około 3, 5 miliarda dolarów.
Tuż za nim plasuje się moduł TPU v6e firmy Google z marżą zysku na poziomie 74, 9%, a na trzecim miejscu plasuje się Trn2 Ultraserver firmy AWS z marżą zysku na poziomie 62, 5%.Marża zysku w innych rozwiązaniach wynosi około 40-50%, ale AMD ma przed sobą jeszcze sporo do nadrobienia, o czym świadczą wskaźniki wydajności.

Dla kontrastu, przejście AMD na najnowszą platformę MI355X przyniosło niepokojącą ujemną marżę zysku na poziomie 28, 2%.Wcześniejszy model MI300X wypadł jeszcze gorzej, z oszałamiającą ujemną marżą zysku na poziomie 64, 0% pod względem wydajności wnioskowania AI. Raport Morgan Stanley przedstawia również dane dotyczące generowania przychodów na chip na godzinę, z których wynika, że GB200 firmy NVIDIA osiąga 7, 5 USD na godzinę, a następnie HGX H200 z 3, 7 USD. Dla porównania, MI355X firmy AMD generuje zaledwie 1, 7 USD na godzinę, podczas gdy większość innych konkurentów plasuje się w przedziale od 0, 5 do 2, 0 USD, co wskazuje na dominację NVIDII w tym segmencie.

Istotna przewaga firmy NVIDIA w dziedzinie wnioskowania AI wynika przede wszystkim ze wsparcia dla FP4 i ciągłych udoskonaleń w stosie AI CUDA. Firma skutecznie potraktowała kilka swoich wcześniejszych modeli GPU, w tym Hopper, a nawet Blackwell, niczym wino wykwintne – stopniowo zwiększając ich wydajność z kwartału na kwartał.
Chociaż platformy AMD MI300 i MI350 wyróżniają się pod względem możliwości sprzętowych, firma nadal stoi przed wyzwaniami w zakresie optymalizacji oprogramowania pod kątem wnioskowania AI, a jest to obszar, w którym konieczne są zdecydowane udoskonalenia.

Warto zauważyć, że Morgan Stanley podkreślił również całkowity koszt posiadania (TCO) platform AMD MI300X sięgający nawet 744 milionów dolarów, co jest porównywalne z ceną platformy GB200 firmy NVIDIA wynoszącą około 800 milionów dolarów. Wskazuje to, że struktura kosztów AMD może nie być korzystna w kontekście konkurencji. Szacowany całkowity koszt posiadania (TCO) nowszego serwera MI355X, wynoszący 588 milionów dolarów, jest zbliżony do kosztu platformy CloudMatrix 384 firmy Huawei, ale wyższe początkowe wydatki mogą zniechęcić potencjalnych użytkowników do wyboru AMD, zwłaszcza biorąc pod uwagę wyższą wydajność wnioskowania AI firmy NVIDIA, która według prognoz będzie dominować w 85% rynku sztucznej inteligencji w nadchodzących latach.
Ponieważ NVIDIA i AMD dążą do dotrzymania sobie kroku, NVIDIA planuje wprowadzić na rynek w tym roku swój procesor graficzny Blackwell Ultra, obiecując 50-procentowy wzrost wydajności w porównaniu z istniejącym modelem GB200. Następnie, w pierwszej połowie 2026 roku, planowana jest produkcja nadchodzącej platformy Rubin, wraz z Rubin Ultra i Feynman. AMD planuje wprowadzić na rynek w przyszłym roku procesor MI400, aby konkurować z Rubinem, i oczekuje się, że wdroży kilka optymalizacji wnioskowania AI w swojej linii MI400, co stworzy interesującą i dynamiczną konkurencję w segmencie sztucznej inteligencji.
Źródła wiadomości: WallStreetCN, Jukanlosreve
Dodaj komentarz