
NVIDIA, renomowany producent procesorów graficznych, poszerza swoją ofertę innowacyjnego, modułowego rozwiązania pamięciowego SOCAMM (Scalable On-Demand AI Memory Module).Ten postęp ma na celu ułatwienie bezproblemowej rozbudowy pamięci w urządzeniach AI, zwiększając tym samym ogólną wydajność i energooszczędność.
Rozszerzenie pamięci SOCAMM firmy NVIDIA: odpowiedź na rosnące zapotrzebowanie
Zaprezentowany podczas niedawnego wydarzenia NVIDIA GTC, system pamięci SOCAMM ma znacząco wzrosnąć w tym roku. Inicjatywa ta jest zgodna z dążeniem firmy NVIDIA do zapewnienia najwyższej wydajności przy jednoczesnym minimalizowaniu zużycia energii w swojej ofercie produktów z zakresu sztucznej inteligencji (AI).Podczas wydarzenia uczestnicy mogli zobaczyć platformę GB300 firmy NVIDIA działającą z pamięcią SOCAMM, komponentem opracowanym we współpracy z firmą Micron. To rozwiązanie wyróżnia się na tle powszechnie stosowanych typów pamięci, takich jak HBM i LPDDR5X, powszechnie stosowanych w serwerach AI i urządzeniach mobilnych.

Pamięć SOCAMM wykorzystuje pamięć DRAM LPDDR, tradycyjnie preferowaną w urządzeniach mobilnych i energooszczędnych. Jednak kluczową cechą wyróżniającą SOCAMM jest jej modułowa konstrukcja, umożliwiająca modernizację – w przeciwieństwie do innych systemów, w których pamięć jest trwale przylutowana do płytki PCB. Doniesienia ETNews wskazują, że NVIDIA planuje wyprodukować w tym roku od 600 000 do 800 000 jednostek SOCAMM, co podkreśla jej zaangażowanie w rozszerzanie oferty produktów AI.
Wśród pierwszych użytkowników pamięci SOCAMM znajduje się najnowsza wersja platformy GB300 Blackwell. Ten rozwój sygnalizuje przejście firmy NVIDIA w kierunku wdrażania nowych formatów pamięci w całym ekosystemie technologii sztucznej inteligencji. Chociaż przewidywana produkcja do 800 000 jednostek SOCAMM w tym roku jest skromna w porównaniu z pamięcią HBM dostarczaną przez partnerów firmy NVIDIA w 2025 roku, spodziewany jest dalszy wzrost skali w przyszłym roku wraz z wprowadzeniem wariantu pamięci SOCAMM 2.

Pamięć SOCAMM wprowadza wyspecjalizowany format, który jest nie tylko kompaktowy i modułowy, ale także znacząco zwiększa efektywność energetyczną w porównaniu z tradycyjnymi rozwiązaniami RDIMM. Chociaż dokładne dane dotyczące efektywności energetycznej pozostają niejasne, wstępne raporty sugerują, że SOCAMM obiecuje większą przepustowość niż RDIMM, a także lepszą wydajność w porównaniu z popularnymi alternatywami, takimi jak LPDDR5X i LPCAMM, stosowanymi w urządzeniach mobilnych.
Dzięki oczekiwanej przepustowości pamięci od 150 do 250 GB/s, SOCAMM stanowi elastyczne i łatwe w modernizacji rozwiązanie dla komputerów i serwerów AI. Ta innowacja oferuje użytkownikom możliwość łatwej rozbudowy, co dodatkowo potwierdza zaangażowanie firmy NVIDIA w pionierskie osiągnięcia w dziedzinie technologii AI.
Dodaj komentarz