AMD bringt die erste „UEC-fähige“ Pensando Pollara 400 AI NIC auf den Markt und erreicht Geschwindigkeiten von 400 GbE

AMD bringt die erste „UEC-fähige“ Pensando Pollara 400 AI NIC auf den Markt und erreicht Geschwindigkeiten von 400 GbE

AMD hat kürzlich auf der Hot Chips 2025 seine innovative Pensando Pollara 400 AI NIC vorgestellt und damit die erste Ultra Ethernet Consortium (UEC)-fähige AI Network Interface Card (NIC) der Branche eingeführt.

AMD steigert die Leistung um 25 % mit der 400GbE Pensando Pollara 400 AI NIC

Aufbauend auf seiner vorherigen Entwicklung präsentierte AMD im vergangenen Jahr die Pensando Pollara 400. Diese hochmoderne Netzwerkkarte, die speziell für KI-Systeme entwickelt wurde, bietet eine bemerkenswerte Bandbreite von 400 Gbit/s und steht damit in direkter Konkurrenz zu NVIDIAs ConnectX-7. NVIDIA hat jedoch auch die fortschrittlichere ConnectX-8 auf den Markt gebracht, die mit ihren neuesten Blackwell Ultra-Systemen beeindruckende 800 GbE-Geschwindigkeiten bietet.

AMD Pensando Pollara 400 AI NIC; die branchenweit erste Ultra Ethernet AI NIC, 400 Gbit/s Geschwindigkeit.

Der Pensando Pollara 400 ist mit mehreren hochmodernen Funktionen ausgestattet:

  • Programmierbare Hardware-Pipeline
  • Bis zu 1, 25-fache Leistungssteigerung
  • 400 Gbit/s Durchsatz
  • Offene Ökosystemkompatibilität
  • UEC-fähige RDMA-Funktionen
  • Reduzierte Auftragserledigungszeit
  • Außergewöhnliche Verfügbarkeit
Diagramm der AMD Instinct-Systemarchitektur mit Infinity Fabric und PCIe-Switch-Verbindungen.

Die Architektur der Pensando Networking-Lösungen ist eng an die bestehenden Rechenzentrumsarchitekturen von AMD angelehnt, insbesondere an die EPYC- und Instinct-Familien, die PCIe-Switches zur effizienten Verbindung von NICs und CPUs verwenden.

AMD entwickelt Rechenzentrumslösungen mit CPUs, GPUs und Netzwerkhardware weiter.

Wichtig ist, dass die Pensando-NIC ohne PCIe-Switch arbeitet und direkt mit einer Gen5 x16-Verbindung verbunden ist. Die zugrunde liegende Architektur ist im folgenden Diagramm dargestellt:

Blockdiagramm, das die AMD Pensando NIC-Architektur mit NOC-Verbindung und P4DMA-Komponenten zeigt.

Durch die Nutzung einer P4-Architektur erreicht die Pensando Pollara 400 AI NIC eine bemerkenswerte Effizienz.

AMD Pensando P4-Architekturdiagramm, das die Paketverarbeitung und Speicherflusspfade zeigt.

Zu den wesentlichen Komponenten der Architektur gehört die Table Engine (TE), die für die Generierung von Tabellenschlüsseln aus dem Paketheader-Vektor sowie für die Ausführung spezifischer Speicherlesevorgänge basierend auf dem Datentyp verantwortlich ist.

Diagramm der P4-Pipeline-Komponenten mit Hervorhebung der Schlüsselgenerierung und des Speicherzugriffs der Tabellen-Engine.

Das Design umfasst außerdem eine Match Processing Unit (MPU), einen spezialisierten Prozessor, der optimierte Opcodes für die Feldmanipulation verwendet und unterschiedliche Speicher-, Tabellen- und PHV-Schnittstellen ermöglicht.

Diagramm der P4-Pipeline-Komponenten mit Match Processing Unit und Schnittstellen.

Darüber hinaus verbessern Innovationen wie die Übersetzungsfunktion von virtuellen in physische Adressen (va2pa) die Systemleistung weiter.

Flussdiagramm des Prozesses zur Konvertierung virtueller in physische Adressen in der Computerarchitektur.

Was atomare Speicheroperationen betrifft, hat AMD diese zur Steigerung der Effizienz neben SRAM-Systemen implementiert.

Übersicht über AMD-Verbesserungen im Bereich atomarer Operationen mit Vorteilen für den SRAM-Speicher.

Die Pipeline Cache Coherency verwendet eine Ungültigkeits-/Aktualisierungslogik, um sicherzustellen, dass die P4-Kohärenz auf Adressbereichsbasis effektiv funktioniert.

Diagramm der Verbesserungen der Pipeline-Cache-Kohärenz mit Erklärung der Ungültigkeits-/Aktualisierungslogik.

AMD identifiziert mehrere Herausforderungen, die die Leistung von KI-Systemen in Scale-Out-Netzwerken beeinträchtigen. Probleme wie ineffiziente Link-Auslastung im Zusammenhang mit ECMP-Lastausgleich, Netzwerküberlastung und Paketverlust beeinträchtigen die Gesamteffektivität.

AI Scale-Out-Netzwerk: Herausforderungen bei der Systemleistung und Netzwerkprobleme wie Überlastung und Paketverlust.

Das Unternehmen betont außerdem, dass KI-Netzwerke im Vergleich zu allgemeinen Netzwerken eine deutlich höhere Auslastung aufweisen und daher häufig an die Grenzen der verfügbaren Netzwerkbandbreite stoßen.

Hohe Netzwerkauslastung: KI-Backend-Netzwerke ermöglichen Datenübertragungen mit 95 % Auslastung.

AMD präsentiert das Ultra Ethernet Consortium (UEC) als wichtige Lösung zur Überwindung dieser Hindernisse. Das UEC fördert ein offenes, interoperables Hochleistungs-Framework, das die Netzwerkanforderungen erfüllt, die für KI- und High-Performance-Computing-Anwendungen (HPC) im großen Maßstab unerlässlich sind.

Ultra Ethernet Consortium: Offenes, skalierbares, kostengünstiges Ethernet für KI- und HPC-Anforderungen.

Das auf Effizienz und Erschwinglichkeit ausgelegte UEC zielt darauf ab, die zunehmenden Anforderungen an moderne Datennetzwerke zu erfüllen.

AMD Pensando Pollara 400 AI NIC mit RDMA, UEC AI-Transport, Überlastungskontrolle, schnelle Wiederherstellung.

Zu den weiteren Vorteilen des UEC zählen verbesserte Routing-Techniken und Netzwerkverwaltungslösungen zur Lösung von Problemen im Zusammenhang mit Überlastung und Paketverlust.

Leistungsdiagramm von Pollara RDMA vs. RoCEv2 RPC, das die Effizienzsteigerungen des Netzwerks hervorhebt.

Zusammenfassend lässt sich sagen, dass AMDs Pensando Pollara 400 AI UEC-fähige RDMA-NIC eine Leistungssteigerung von 25 % im Vergleich zu RoCEv2 mit 4 Qpairs und eine bemerkenswerte Steigerung von 40 % gegenüber RoCEv2 mit 1 Qpair aufweist und damit seine Rolle als führender Anbieter von Netzwerktechnologie festigt.

Quelle & Bilder

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert