NVIDIA Blackwell GB200 verbessert Google Cloud A4-VMs mit 2,25-facher Rechenleistung und erhöhter HBM-Kapazität

NVIDIA Blackwell GB200 verbessert Google Cloud A4-VMs mit 2,25-facher Rechenleistung und erhöhter HBM-Kapazität

Google Cloud hat mit der Einführung seines ersten NVIDIA Blackwell-Systems „GB200 NVL72“, das speziell zur Verbesserung der Leistung von OpenAI entwickelt wurde, einen bedeutenden Fortschritt im Bereich des KI-Trainings und der KI-Entwicklung erzielt.

Erweiterung von NVIDIA Blackwell GB200-Systemen im Google Cloud- und Azure AI-Dienst

OpenAI wird durch den Einsatz des GB200 NVL72 „Blackwell“-Systems von NVIDIA einen erheblichen Anstieg seiner Rechenleistung erfahren. NVIDIA unterstützt OpenAI schon seit langem mit seinen fortschrittlichen KI-Modellen, doch diese neueste Integration mit Google Cloud bedeutet einen entscheidenden Sprung nach vorne bei der Nutzung leistungsstarker GPUs in Rechenzentren für ein verbessertes KI-Training.

Neben Google Cloud hat Microsoft auch seine ersten Azure-Instanzen mit NVIDIAs hochmodernen Blackwell-GPUs vorgestellt. In einem aktuellen X-Post hob Sam Altman, CEO von OpenAI, die Bereitstellung aller acht Racks des GB200 NVL72-Systems in Microsoft Azure hervor. Altman dankte sowohl Microsoft-CEO Satya Nadella als auch NVIDIA-CEO Jensen Huang für die Ermöglichung dieser Zusammenarbeit, die Microsoft als führenden Cloud-Dienstanbieter für KI-gesteuerte Workloads positioniert.

Die hochmoderne NVIDIA Blackwell GB200 NVL72-Konfiguration besteht aus 36 Grace-CPUs und 72 Blackwell-GPUs, die in einer Rack-Scale-Architektur angeordnet sind. Mit insgesamt acht implementierten Racks bietet das System eine beeindruckende Kapazität von 288 Grace-CPUs und erstaunlichen 576 B200-GPUs. Dieses Setup kann eine bemerkenswerte Rechenleistung liefern, wobei jedes Rack bis zu 6.480 TFLOPS FP32- und 3.240 TFLOPS FP64-Leistung erzeugen kann. Bei einer Gesamtanzahl von acht Racks steigt das Gesamtpotenzial auf ungefähr 51.840 TFLOPS FP32 und 25.920 TFLOPS FP64.

Diese außergewöhnliche Rechenleistung macht den Azure OpenAI-Dienst zu einem unschätzbaren Vorteil für Unternehmen, die ihre Betriebseffizienz steigern möchten. Die NVIDIA „Blackwell“GB200 NVL72 wurde speziell für große generative KI-Workloads entwickelt und verfügt über eine beeindruckende Speicherbandbreite von bis zu 576 TB/s und ermöglicht gleichzeitig erweiterte Parallelverarbeitung.

NVIDIA Blackwell-System

Derzeit verwendet OpenAI eine Reihe von NVIDIA-GPU-Modellen, darunter V100s, H100s und A100s. Der Blackwell B200 erweist sich jedoch als der ausgereifteste GPU-Chip und bietet erhebliche Leistungssteigerungen gegenüber seinen Vorgängern. Angesichts der Investition von Microsoft in Höhe von fast 14 Milliarden US-Dollar in OpenAI ist es offensichtlich, dass das Unternehmen seinen Kunden Zugang zu den leistungsstärksten Maschinen auf dem Markt bieten möchte.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert