NVIDIA Blackwell GB200 bietet 2,25-mal höhere Rechen- und HBM-Kapazität für A4-virtuelle Maschinen auf Microsoft Azure

NVIDIA Blackwell GB200 bietet 2,25-mal höhere Rechen- und HBM-Kapazität für A4-virtuelle Maschinen auf Microsoft Azure

Microsoft Azure hat mit der Integration seines ersten NVIDIA Blackwell „GB200 NVL72“-Systems zur Erweiterung der OpenAI-Funktionalitäten einen wichtigen Meilenstein erreicht und stellt damit eine entscheidende Entwicklung im Bereich des KI-Trainings und der KI-Optimierung dar.

Microsoft erweitert die Rechenkapazitäten von OpenAI mit NVIDIA Blackwell-Technologie

Die Einführung des hochmodernen NVIDIA GB200 NVL72 „Blackwell“-Systems bedeutet einen erheblichen Sprung nach vorne für die Leistung und Fähigkeiten von OpenAI. Die fortschrittlichen GPUs von NVIDIA haben die KI-Modelle von OpenAI stets unterstützt. Die Partnerschaft mit Microsoft Azure zielt jedoch darauf ab, die Wirksamkeit dieser KI-Modelle durch intensivere und strengere Trainingsprozesse zu maximieren.

In einem aktuellen X-Post bestätigte Sam Altman, CEO von OpenAI, die erfolgreiche Implementierung des ersten kompletten Satzes von acht Racks mit den GB200 NVL72-Systemen auf Microsoft Azure. Seine Anerkennung für diese Innovation gegenüber Microsoft-CEO Satya Nadella und NVIDIA-CEO Jensen Huang unterstreicht die Stärke der Zusammenarbeit dieser führenden Technologieunternehmen. Diese Partnerschaft positioniert Microsoft als einen beeindruckenden Akteur unter den Cloud-Dienstanbietern für KI-Operationen.

Unübertroffene Rechenleistung des Blackwell-Systems

Das hochentwickelte NVIDIA Blackwell GB200 NVL72-System besticht durch eine beeindruckende Architektur mit 36 ​​Grace-CPUs und 72 Blackwell-GPUs, die in jedes Rack integriert sind. Bei voller Verteilung auf acht Racks verfügt das System über insgesamt 288 Grace-CPUs und erstaunliche 576 Blackwell-GPUs. Diese Konfiguration erzeugt außergewöhnliche Rechenkapazitäten; ein einzelnes Rack kann bis zu 6.480 TFLOPS FP32-Verarbeitungsleistung und 3.240 TFLOPS FP64-Leistung liefern, was diese Zahl auf fast 51.840 TFLOPS FP32 und 25.920 TFLOPS FP64 im gesamten System skaliert.

Dank dieser bemerkenswerten Verarbeitungsleistung kann der Azure OpenAI-Dienst Unternehmen, die ihre Betriebsabläufe effizient skalieren möchten, effektiv unterstützen. Das NVIDIA „Blackwell“GB200 NVL72-System ist auf die Bewältigung umfangreicher generativer KI-Aufgaben zugeschnitten und verfügt über eine hohe Speicherbandbreite von bis zu 576 TB/s sowie robuste Parallelverarbeitungsfunktionen.

NVIDIA Blackwell-Grafikprozessor

Die aktuelle GPU-Liste von OpenAI umfasst verschiedene NVIDIA-Modelle wie die V100s, H100s und A100s. Der Blackwell B200 stellt jedoch den Höhepunkt der GPU-Technologie dar und bietet erhebliche Leistungssteigerungen gegenüber früheren Versionen. Angesichts der beträchtlichen Investition von Microsoft in Höhe von fast 14 Milliarden US-Dollar in OpenAI ist es offensichtlich, dass das Unternehmen bestrebt ist, seinen Kunden die fortschrittlichsten Computerlösungen anzubieten.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert