
Segment pamięci o dużej przepustowości (HBM) Samsunga stoi na progu znaczącej transformacji, szczególnie gdy AMD włącza proces HBM3E do swojego najnowszego akceleratora sztucznej inteligencji (AI).Rozwój ten może również utorować drogę do przyszłego poparcia NVIDIA.
Droga do akceptacji NVIDII: HBM3E firmy Samsung zyskuje popularność dzięki AMD
Samsung przechodzi przez trudne czasy na rynku AI, zwłaszcza że jego dział odlewniczy nie radził sobie najlepiej w ciągu ostatnich kilku kwartałów. Początkowy optymizm co do działu HBM pojawił się, gdy NVIDIA wyraziła duże zainteresowanie jego możliwościami. Jednak po szeroko zakrojonych testach kwalifikacyjnych Samsung nie spełnił rygorystycznych standardów NVIDII, co tymczasowo odsunęło firmę od kluczowego segmentu branży.
Ostatnie raporty BusinessKorea wskazują, że na horyzoncie może nastąpić zwrot. AMD oficjalnie ogłosiło wykorzystanie stosów HBM3E 12-Hi firmy Samsung w swojej najnowszej linii akceleratorów AI. Ponadto trwają również prace nad współpracą między Samsungiem a AMD w zakresie nadchodzącej serii akceleratorów Instinct MI400, wykorzystującej zaawansowany proces HBM4.

Niedawno zaprezentowane akceleratory AI firmy AMD, Instinct MI350X i MI355X, mają zawierać HBM3E zarówno od Samsunga, jak i Microna, każdy wyposażony w 288 GB pamięci. Prawdopodobnie wskazuje to na implementację stosów 12-Hi firmy Samsung. Ponadto ambicje AMD, aby skalować te rozwiązania AI do ofert w skali szafy, mogą znacznie zwiększyć popyt na rozwiązania pamięci HBM3E, co ostatecznie korzystnie wpłynie na pozycję rynkową Samsunga w czasie. To partnerstwo oznacza godne uwagi uznanie możliwości Samsunga, potencjalnie generując pozytywną reakcję interesariuszy branży.
Patrząc w przyszłość, Samsung przewiduje również zwiększenie produkcji HBM4 w drugiej połowie tego roku. Biorąc pod uwagę zaangażowanie AMD w wykorzystanie procesu HBM4 w swoich akceleratorach AI Instinct MI400, istnieje duży potencjał powszechnego przyjęcia zaawansowanych technologii pamięci Samsunga.
Dodaj komentarz