
ASRock hat ein neues Server-Rack vorgestellt , das angeblich das „kleinste“ ist und die hochmodernen GH200-Superchips von NVIDIA integrieren kann.
Die neueste KI-Lösung von ASRock zielt darauf ab, die Möglichkeit der KI-Bereitstellung in Edge-Umgebungen effektiv und platzsparend bereitzustellen. Das Design wird mit dem NVIDIA GH200 Grace Hopper Superchip ermöglicht
Mit den rasanten Fortschritten in den Bereichen KI und Rechenzentren haben Unternehmen den Wettlauf um die Entwicklung neuer Lösungen verstärkt, die die erforderliche Rechenleistung viel effektiver bereitstellen. In ähnlicher Weise hat ASRock Rack, eine der ASRock-Abteilungen, das neue ASRock Rack MECAI-GH200 vorgestellt, das als kleinstes Server-Rack für das Grace Hopper GH200-Modul von Team Green beworben wird und zweifellos ein technologisches Wunderwerk darstellt, wenn es um die Bereitstellung geht die nötige Leistung auf engstem Raum.

Als ASRock Rack streben wir danach, die Vorteile der KI überallhin zu bringen. Um dieses Ziel zu erreichen, sind wir bestrebt, die zuverlässigsten Server-Hardwarelösungen in verschiedenen Formfaktoren für unterschiedliche Szenarien bereitzustellen. Wir freuen uns über die Gelegenheit, den MECAI-GH200 als Beispiel für unsere Ambitionen für 2024 hier auf dem Mobile World Congress vorzustellen und KI am Rande zu ermöglichen.
– Hunter Chen, Vizepräsident bei ASRock Rack
Für einen kurzen Überblick über die Spezifikation des Grace Hopper Superchip: Es gibt ihn in zwei verschiedenen Varianten, eine als Grace Hopper Superchip mit der H200-GPU und einen einzelnen Grace-Chip mit 72 Neoverse V2-Kernen mit HBM3-Speicher. Gleichzeitig handelt es sich beim zweiten Modell um den Grace Superchip, der über zwei Grace-CPUs mit jeweils 72 Kernen für insgesamt 144 Kerne mit LPDDR5x-Speicher verfügt. Um eine nahtlose Integration zwischen den Onboard-Komponenten zu schaffen, nutzt NVIDIA die NVLink-Verbindungstechnologie, die die beste verfügbare Leistung bietet.

Zusätzlich zur ASRock-Lösung hat NVIDIA auch mehrere Grace Hopper GH200 Super-Chip-Produkte angekündigt, darunter:
- Der MECAI von ASRock RACK mit den Maßen 450 x 445 x 87 mm beschleunigt KI- und 5G-Dienste auf engstem Raum am Rande von Telekommunikationsnetzwerken.
- Der MGX-Server von ASUS, der ESC NM2N-E1, lässt sich in ein Rack einschieben, das bis zu 32 GH200-Prozessoren fasst und luft- und wassergekühlte Knoten unterstützt.
- Foxconn bietet eine Reihe von MGX-Systemen an, darunter ein 4U-Modell, das bis zu acht NVIDIA H100 NVL PCIe Tensor Core GPUs beherbergt.
- Der XH23-VG0-MGX von GIGABYTE bietet in seinen sechs Hot-Swap-fähigen 2,5-Zoll-Gen5-NVMe-Schächten und zwei M.2-Steckplätzen reichlich Speicher.
- Die Systeme von Inventec können in 19- und 21-Zoll-Racks eingebaut werden und nutzen drei verschiedene Implementierungen der Flüssigkeitskühlung.
- Lenovo bietet eine Reihe von 1U-, 2U- und 4U-MGX-Servern an, darunter Modelle, die direkte Flüssigkeitskühlung unterstützen.
- Der luftgekühlte AS201-1N0-Server von Pegatron verfügt über eine BlueField-3-DPU für softwaredefinierte, hardwarebeschleunigte Netzwerke.
- QCT kann 16 seiner QuantaGrid D74S-IU-Systeme mit jeweils zwei GH200-Superchips in einem einzigen QCT QoolRack stapeln.
- Der ARS-111GL-NHR von Supermicro mit neun Hot-Swap-Lüftern ist Teil eines Portfolios luft- und flüssigkeitsgekühlter GH200- und NVIDIA Grace-CPU-Systeme.
- Wiwynns SV7200H, ein 1U-Dual-GH200-System, unterstützt eine BlueField-3-DPU und ein Flüssigkeitskühlungs-Subsystem, das aus der Ferne verwaltet werden kann.
- Die MGX-Server von Wistron sind 4U-GPU-Systeme für KI-Inferenz und gemischte Workloads, die bis zu acht Beschleuniger in einem System unterstützen.
Das neue und kompakte Server-Rack von ASRock wird KI-Entwicklungen in einer Edge-Umgebung vorantreiben und die beste auf dem Markt verfügbare Rechenleistung bereitstellen.
Schreibe einen Kommentar