
AMD hat kürzlich auf der Hot Chips 2025 seine innovative Pensando Pollara 400 AI NIC vorgestellt und damit die erste Ultra Ethernet Consortium (UEC)-fähige AI Network Interface Card (NIC) der Branche eingeführt.
AMD steigert die Leistung um 25 % mit der 400GbE Pensando Pollara 400 AI NIC
Aufbauend auf seiner vorherigen Entwicklung präsentierte AMD im vergangenen Jahr die Pensando Pollara 400. Diese hochmoderne Netzwerkkarte, die speziell für KI-Systeme entwickelt wurde, bietet eine bemerkenswerte Bandbreite von 400 Gbit/s und steht damit in direkter Konkurrenz zu NVIDIAs ConnectX-7. NVIDIA hat jedoch auch die fortschrittlichere ConnectX-8 auf den Markt gebracht, die mit ihren neuesten Blackwell Ultra-Systemen beeindruckende 800 GbE-Geschwindigkeiten bietet.

Der Pensando Pollara 400 ist mit mehreren hochmodernen Funktionen ausgestattet:
- Programmierbare Hardware-Pipeline
- Bis zu 1, 25-fache Leistungssteigerung
- 400 Gbit/s Durchsatz
- Offene Ökosystemkompatibilität
- UEC-fähige RDMA-Funktionen
- Reduzierte Auftragserledigungszeit
- Außergewöhnliche Verfügbarkeit

Die Architektur der Pensando Networking-Lösungen ist eng an die bestehenden Rechenzentrumsarchitekturen von AMD angelehnt, insbesondere an die EPYC- und Instinct-Familien, die PCIe-Switches zur effizienten Verbindung von NICs und CPUs verwenden.

Wichtig ist, dass die Pensando-NIC ohne PCIe-Switch arbeitet und direkt mit einer Gen5 x16-Verbindung verbunden ist. Die zugrunde liegende Architektur ist im folgenden Diagramm dargestellt:

Durch die Nutzung einer P4-Architektur erreicht die Pensando Pollara 400 AI NIC eine bemerkenswerte Effizienz.

Zu den wesentlichen Komponenten der Architektur gehört die Table Engine (TE), die für die Generierung von Tabellenschlüsseln aus dem Paketheader-Vektor sowie für die Ausführung spezifischer Speicherlesevorgänge basierend auf dem Datentyp verantwortlich ist.

Das Design umfasst außerdem eine Match Processing Unit (MPU), einen spezialisierten Prozessor, der optimierte Opcodes für die Feldmanipulation verwendet und unterschiedliche Speicher-, Tabellen- und PHV-Schnittstellen ermöglicht.

Darüber hinaus verbessern Innovationen wie die Übersetzungsfunktion von virtuellen in physische Adressen (va2pa) die Systemleistung weiter.

Was atomare Speicheroperationen betrifft, hat AMD diese zur Steigerung der Effizienz neben SRAM-Systemen implementiert.

Die Pipeline Cache Coherency verwendet eine Ungültigkeits-/Aktualisierungslogik, um sicherzustellen, dass die P4-Kohärenz auf Adressbereichsbasis effektiv funktioniert.

AMD identifiziert mehrere Herausforderungen, die die Leistung von KI-Systemen in Scale-Out-Netzwerken beeinträchtigen. Probleme wie ineffiziente Link-Auslastung im Zusammenhang mit ECMP-Lastausgleich, Netzwerküberlastung und Paketverlust beeinträchtigen die Gesamteffektivität.

Das Unternehmen betont außerdem, dass KI-Netzwerke im Vergleich zu allgemeinen Netzwerken eine deutlich höhere Auslastung aufweisen und daher häufig an die Grenzen der verfügbaren Netzwerkbandbreite stoßen.

AMD präsentiert das Ultra Ethernet Consortium (UEC) als wichtige Lösung zur Überwindung dieser Hindernisse. Das UEC fördert ein offenes, interoperables Hochleistungs-Framework, das die Netzwerkanforderungen erfüllt, die für KI- und High-Performance-Computing-Anwendungen (HPC) im großen Maßstab unerlässlich sind.

Das auf Effizienz und Erschwinglichkeit ausgelegte UEC zielt darauf ab, die zunehmenden Anforderungen an moderne Datennetzwerke zu erfüllen.

Zu den weiteren Vorteilen des UEC zählen verbesserte Routing-Techniken und Netzwerkverwaltungslösungen zur Lösung von Problemen im Zusammenhang mit Überlastung und Paketverlust.

Zusammenfassend lässt sich sagen, dass AMDs Pensando Pollara 400 AI UEC-fähige RDMA-NIC eine Leistungssteigerung von 25 % im Vergleich zu RoCEv2 mit 4 Qpairs und eine bemerkenswerte Steigerung von 40 % gegenüber RoCEv2 mit 1 Qpair aufweist und damit seine Rolle als führender Anbieter von Netzwerktechnologie festigt.
Schreibe einen Kommentar