
NVIDIA, der renommierte GPU-Hersteller, erweitert sein Angebot an innovativer modularer Speicherlösung namens SOCAMM (Scalable On-Demand AI Memory Module).Diese Weiterentwicklung ermöglicht nahtlose Speicher-Upgrades für KI-Geräte und verbessert so die Gesamtleistung und Energieeffizienz.
NVIDIAs SOCAMM-Speichererweiterung: Eine Antwort auf die steigende Nachfrage
Das SOCAMM-Speichersystem wurde kürzlich auf der NVIDIA GTC-Veranstaltung vorgestellt und soll im Laufe des Jahres deutlich an Produktionszahlen zulegen. Diese Initiative steht im Zeichen des Ziels von NVIDIA, Spitzenleistung bei minimalem Stromverbrauch in seinen KI-Produkten zu liefern. Während der Veranstaltung konnten die Teilnehmer die NVIDIA GB300-Plattform mit SOCAMM-Speicher, einer in Zusammenarbeit mit Micron entwickelten Komponente, bewundern. Diese Lösung unterscheidet sich von weit verbreiteten Speichertypen wie HBM und LPDDR5X, die in KI-Servern und Mobilgeräten üblich sind.

Der SOCAMM-Speicher nutzt LPDDR-DRAM, das traditionell für mobile und energieeffiziente Geräte bevorzugt wird. Ein wesentliches Unterscheidungsmerkmal von SOCAMM ist jedoch sein modularer Aufbau, der Upgrades ermöglicht – im Gegensatz zu anderen Systemen, bei denen der Speicher fest auf die Leiterplatte gelötet ist. Berichten von ETNews zufolge plant NVIDIA, in diesem Jahr zwischen 600.000 und 800.000 SOCAMM-Einheiten zu produzieren und unterstreicht damit sein Engagement für die Erweiterung seiner KI-Produktpalette.
Zu den ersten Anwendern von SOCAMM-Speichern gehört die neueste Version der GB300 Blackwell-Plattform. Diese Entwicklung signalisiert NVIDIAs Umstellung auf neue Speicherformfaktoren in seinem gesamten KI-Ökosystem. Obwohl die erwartete Produktion von bis zu 800.000 SOCAMM-Einheiten in diesem Jahr im Vergleich zu den HBM-Speichern, die NVIDIAs Partner im Jahr 2025 liefern, bescheiden ausfällt, wird im nächsten Jahr mit der Einführung der SOCAMM 2-Speichervariante eine weitere Skalierung erwartet.

Der SOCAMM-Speicher verfügt über einen speziellen Formfaktor, der nicht nur kompakt und modular ist, sondern auch die Energieeffizienz im Vergleich zu herkömmlichen RDIMM-Lösungen deutlich verbessert. Die genauen Kennzahlen zur Energieeffizienz sind noch nicht bekannt, erste Berichte deuten jedoch darauf hin, dass SOCAMM höhere Bandbreiten als RDIMM verspricht und gleichzeitig eine bessere Leistung als beliebte Alternativen wie LPDDR5X und LPCAMM in Mobilgeräten bietet.
Mit einer erwarteten Speicherbandbreite von 150 bis 250 GB/s stellt SOCAMM eine flexible und erweiterbare Lösung für KI-PCs und -Server dar. Diese Innovation bietet Nutzern die Möglichkeit einfacher Erweiterungen und unterstreicht NVIDIAs Engagement für führende Fortschritte in der KI-Technologie.
Schreibe einen Kommentar