CoreWeave erreicht im Vergleich zu NVIDIA GB300 NVL72 und H100 in DeepSeek R1 einen 6-fachen GPU-Durchsatz

CoreWeave erreicht im Vergleich zu NVIDIA GB300 NVL72 und H100 in DeepSeek R1 einen 6-fachen GPU-Durchsatz

Der neu eingeführte NVIDIA Blackwell AI-Superchip, bekannt als GB300, übertrifft seinen Vorgänger, die H100-GPU, deutlich, indem er die Tensorparallelität optimiert und so eine deutlich verbesserte Durchsatzleistung bietet.

NVIDIA GB300: Verbesserter Speicher und höhere Bandbreite für einen höheren Durchsatz als H100

Die Einführung der NVIDIA Blackwell-basierten KI-Superchips markiert einen entscheidenden Fortschritt in der GPU-Technologie. Der GB300 ist NVIDIAs bisher fortschrittlichstes Produkt und zeichnet sich durch bemerkenswerte Verbesserungen der Rechenleistung sowie erhöhte Speicherkapazität und Bandbreite aus. Diese Verbesserungen sind entscheidend für die Bewältigung anspruchsvoller KI-Aufgaben. Ein kürzlich von CoreWeave durchgeführter Benchmark verdeutlicht das Potenzial des GB300: Durch die Reduzierung der Tensorparallelität erreicht er einen deutlich höheren Durchsatz.

Bei den von CoreWeave durchgeführten Tests mit dem DeepSeek R1 Reasoning-Modell, einem komplexen KI-Framework, zeigte sich ein deutlicher Unterschied zwischen den beiden Plattformen. Für das DeepSeek R1-Modell war ein Cluster aus 16 NVIDIA H100-GPUs erforderlich, während vier GB300-GPUs auf der NVIDIA GB300 NVL72-Infrastruktur für dieselbe Aufgabe ausreichten. Bemerkenswerterweise kann das GB300-System den sechsfachen Rohdurchsatz pro GPU liefern, was seine überlegene Leistung bei komplexen KI-Workloads im Vergleich zum H100 unterstreicht.

Benchmark-Diagramm: 4x GB300-GPUs übertreffen 16x H100-GPUs im Durchsatz um 6, 5x Token/s.
Bildnachweis: CoreWeave

Die Ergebnisse zeigen einen deutlichen Vorteil des GB300, der eine vereinfachte 4-Wege-Tensor-Parallelitätskonfiguration nutzt. Diese reduzierte Parallelität verbessert die Kommunikation zwischen den GPUs, während die höhere Speicherkapazität und Bandbreite zu deutlichen Leistungssteigerungen beitragen. Die GB300 NVL72-Plattform profitiert von den bandbreitenstarken NVLink- und NVSwitch-Verbindungen, die einen schnellen Datenaustausch zwischen den GPUs ermöglichen.

Dieser technologische Fortschritt bringt konkrete Vorteile für die Nutzer: Er ermöglicht eine schnellere Token-Generierung und geringere Latenzzeiten und ermöglicht so eine effektivere Skalierung von KI-Operationen in Unternehmensumgebungen. CoreWeave hebt die bemerkenswerten Spezifikationen des NVIDIA GB300 NVL72 Rack-Scale-Systems hervor, das über eine beeindruckende Speicherkapazität von 37 TB (mit der Möglichkeit, bis zu 40 TB zu unterstützen) verfügt und sich ideal für die Verwaltung großer, komplexer KI-Modelle eignet. Ergänzt wird dies durch Verbindungsmöglichkeiten, die eine Speicherbandbreite von bis zu 130 TB/s erreichen.

NVIDIA GB300 NVL72-Spezifikationen: GPUs, CPUs, Speicherbandbreite, Leistung der Tensorkerne.

Letztendlich liefert die NVIDIA GB300 nicht nur beeindruckende TFLOPs, sondern legt auch Wert auf effiziente Betriebsabläufe. Durch die Minimierung der Tensorparallelität reduziert die GB300 den Kommunikationsaufwand zwischen GPUs, der üblicherweise umfangreiche KI-Trainings- und Inferenzprozesse behindert. Dadurch können Unternehmen nun mit weniger GPUs einen deutlich höheren Durchsatz erzielen, was zu Kostensenkungen und verbesserter Skalierbarkeit ihrer KI-Implementierungen führt.

Nachrichtenquelle: CoreWeave

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert