
SK Hynix hat die Einführung von 24 GB GDDR7-Speicher angekündigt, der die VRAM-Kapazitäten künftiger Grafikprozessoren (GPUs) deutlich erhöhen wird. Darüber hinaus bereitet das Unternehmen die Einführung von HBM4-Speicherlösungen vor.
Fortschritte in der Speichertechnologie: Die GDDR7- und HBM4-Initiativen von We Hynix
In seinem jüngsten Update betonte We Hynix ein erfolgreiches Quartal, das durch einen starken Absatzanstieg seiner 12-Hi HBM3e DRAM-Module gekennzeichnet war. Das Unternehmen meldete zudem über den Erwartungen liegende Liefermengen für DRAM und NAND-Flash, was zu einer robusten Quartalsleistung beitrug.
Ein wichtiges Highlight dieses Berichts ist die Entwicklung der 24-GB-GDDR7-Speichermodule. Diese neuen Speicherchips sollen nicht nur Grafikkarten der nächsten Generation unterstützen, sondern auch KI-orientierten Kunden erweiterte VRAM-Kapazitäten bieten. Die 24-GB-Konfiguration (entspricht 3 GB) bietet im Vergleich zu den aktuellen 16-GB-Chips (2 GB) eine deutliche Kapazitätssteigerung von 50 %.

Darüber hinaus wird erwartet, dass GDDR7 beeindruckende Geschwindigkeitssteigerungen bietet. Datenraten von über 30 Gbit/s werden mit zunehmender Weiterentwicklung der Technologie voraussichtlich zum Standard. Auch wenn die Einführung von Optionen mit über 40 Gbit/s in Sicht ist, stellt die Erweiterung der VRAM-Kapazitäten einen bedeutenden Fortschritt dar.
Samsung hat bereits mit der Produktion ähnlicher Speichermodule begonnen, und einige wurden bereits online zum Verkauf angeboten. Die kommende „RTX 50 SUPER“-Serie von NVIDIA wird voraussichtlich diese Speicherlösungen mit hoher Kapazität enthalten und könnte noch in diesem oder Anfang nächsten Jahres auf den Markt kommen.
Vergleichende Analyse von Grafikspeichertechnologien
GRAFIKSPEICHERN | GDDR7 | GDDR6X | GDDR6 | GDDR5X |
---|---|---|---|---|
Arbeitsbelastung | Gaming / KI | Gaming / KI | Gaming / KI | Spiele |
Plattform (Beispiel) | GeForce RTX 5090 | GeForce RTX 4090 | GeForce RTX 2080 Ti | GeForce GTX 1080 Ti |
Chipkapazität (GB) | 16-64 | 8-32 | 8-32 | 8-16 |
Anzahl der Platzierungen | 12? | 12 | 12 | 12 |
Gb/s/Pin | 28-42, 5 | 19-24 | 14-16 | 11.4 |
GB/s/Platzierung | 128-144 | 76-96 | 56-64 | 45 |
GB/s/System | 1536–1728 | 912-1152 | 672-768 | 547 |
Konfiguration (Beispiel) | 384 IO (12 Stück x 32 IO-Paket)? | 384 IO (12 Stück x 32 IO-Paket) | 384 IO (12 Stück x 32 IO-Paket) | 384 IO (12 Stück x 32 IO-Paket) |
Frame-Puffer eines typischen Systems | 24 GB (16 GB) / 36 GB (24 GB) | 24 GB | 12 GB | 12 GB |
Modulpaket | 266 (BGA) | 180 (BGA) | 180 (BGA) | 190 (BGA) |
Durchschnittliche Geräteleistung (pJ/Bit) | Wird noch bekannt gegeben | 7, 25 | 7, 5 | 8, 0 |
Typischer IO-Kanal | Leiterplatte (P2P SM) | Leiterplatte (P2P SM) | Leiterplatte (P2P SM) | Leiterplatte (P2P SM) |
Das Unternehmen erwartet, dass die solide Leistung seiner Produkte und die Massenproduktionskapazitäten dazu beitragen werden, HBM im Vergleich zum Vorjahr zu verdoppeln und stabile Erträge zu erzielen. Um wettbewerbsfähig zu bleiben, wird HBM4 entsprechend den Kundenanforderungen zeitnah bereitgestellt.
SK Hynix wird noch in diesem Jahr mit der Bereitstellung eines LPDDR-basierten Moduls für Server beginnen und GDDR7-Produkte für KI-GPUs mit einer erweiterten Kapazität von 16 GB auf 24 GB vorbereiten, um seine Führungsposition auf dem KI-Speichermarkt durch Produktdiversifizierung auszubauen.

Da der HBM4-Standard der nächsten Generation die High-Performance-Computing- (HPC) und KI-Landschaft revolutionieren wird, sind Unternehmen wie NVIDIA und AMD bereit, diese Speicherlösungen in ihren kommenden Modellen, wie beispielsweise den Rubin- und MI400-Architekturen, einzusetzen. Erste Lieferungen haben Berichten zufolge bereits begonnen und konzentrieren sich auf Evaluierungszwecke. Dies deutet auf einen starken Trend hin, diese fortschrittliche Speichertechnologie zu nutzen. Eine aktuelle Roadmap für HBM veranschaulicht, wie sich diese neuen Standards im Vergleich zu bestehenden Speicherlösungen positionieren und welche Architekturänderungen möglich sind.
Schreibe einen Kommentar