AMD、初の「UEC対応」Pensando Pollara 400 AI NICを発表、400GbEの速度を実現

AMD、初の「UEC対応」Pensando Pollara 400 AI NICを発表、400GbEの速度を実現

AMD は最近、Hot Chips 2025 で革新的なPensando Pollara 400 AI NIC を発表し、業界初の Ultra Ethernet Consortium (UEC) 対応 AI ネットワーク インターフェイス カード (NIC) を導入しました。

AMD、400GbE Pensando Pollara 400 AI NICでパフォーマンスを25%向上

AMDは昨年、これまでの開発成果を基にPensando Pollara 400を発表しました。AIシステム向けに特別に設計されたこの最先端のNICは、驚異的な400Gbpsの帯域幅を誇り、NVIDIAのConnectX-7と直接競合します。しかし、NVIDIAはより高度なConnectX-8もリリースしており、最新のBlackwell Ultraシステムで800GbEという驚異的な速度を実現しています。

AMD Pensando Pollara 400 AI NIC。業界初の Ultra Ethernet AI NIC、速度 400 Gbps。

Pensando Pollara 400 には、次のような最先端機能が搭載されています。

  • プログラム可能なハードウェアパイプライン
  • 最大1.25倍のパフォーマンス向上
  • 400 Gbpsのスループット
  • オープンエコシステムの互換性
  • UEC対応RDMA機能
  • 作業完了時間の短縮
  • 優れた可用性
Infinity Fabric と PCIe スイッチ接続を備えた AMD Instinct システム アーキテクチャの図。

Pensando Networking ソリューションのアーキテクチャは、AMD の既存のデータ センター アーキテクチャ、特に PCIe スイッチを使用して NIC と CPU を効率的に接続する EPYC および Instinct ファミリと密接に連携しています。

AMD は、CPU、GPU、ネットワーク ハードウェアを使用してデータ センター ソリューションを推進しています。

重要なのは、Pensando NICはPCIeスイッチなしで動作し、Gen5 x16接続と直接インターフェースすることです。基盤となるアーキテクチャの概要は次の図に示されています。

NOC 相互接続と P4DMA コンポーネントを備えた AMD Pensando NIC アーキテクチャを示すブロック図。

P4 アーキテクチャの活用により、Pensando Pollara 400 AI NIC は優れた効率を実現します。

パケット処理とメモリ フロー パスを示す AMD Pensando P4 アーキテクチャ図。

アーキテクチャの重要なコンポーネントには、パッケージ ヘッダー ベクトルからテーブル キーを生成する役割と、データ型に基づいて特定のメモリ読み取りを実行する役割を持つテーブル エンジン (TE) が含まれます。

テーブル エンジン キー生成とメモリ アクセスを強調した P4 パイプライン コンポーネントの図。

この設計には、フィールド操作用に最適化されたオペコードを使用して個別のメモリ、テーブル、および PHV インターフェイスを容易にする専用プロセッサである Match Processing Unit (MPU) も搭載されています。

マッチ処理ユニットとインターフェースを示す P4 パイプライン コンポーネントの図。

さらに、仮想アドレスから物理アドレス (va2pa) への変換機能などの革新的な技術により、システム パフォーマンスがさらに向上します。

コンピューティング アーキテクチャにおける仮想アドレスから物理アドレスへの変換プロセスのフローチャート。

アトミック メモリ操作に関しては、AMD は効率性を高めるために SRAM システムに隣接して実装しました。

SRAM メモリの利点を備えたアトミック操作の概要における AMD の機能強化。

パイプライン キャッシュ コヒーレンシは無効化/更新ロジックを採用し、P4 コヒーレンシがアドレス範囲ベースで効果的に動作することを保証します。

無効化/更新ロジックの説明を含むパイプライン キャッシュの一貫性強化の図。

AMDは、スケールアウトネットワーク全体におけるAIシステムのパフォーマンスに影響を与えるいくつかの課題を特定しています。ECMPロードバランシングに関連する非効率的なリンク利用、ネットワーク輻輳、パケットロスといった問題は、全体的な効率性を阻害します。

AI スケールアウト ネットワーク: システム パフォーマンスの課題と、輻輳やパケット損失などのネットワークの問題。

同社はまた、AI ネットワークでは汎用ネットワークに比べて利用率が大幅に高く、ネットワーク帯域幅の可用性の限界に達することが多いと指摘しています。

高いネットワーク使用率: AI バックエンド ネットワークは 95% の使用率でデータ転送を実現します。

AMDは、これらの障害を克服するための重要なソリューションとして、Ultra Ethernet Consortium(UEC)を提案しています。UECは、大規模なAIおよびハイパフォーマンスコンピューティング(HPC)アプリケーションに不可欠なネットワーク要件に対応するために設計された、オープンで相互運用性のある高性能フレームワークを推進しています。

Ultra Ethernet Consortium: AI および HPC の需要に応える、オープンでスケーラブル、コスト効率に優れたイーサネット。

UEC は効率性と経済性を重視して設計されており、現代のデータ ネットワークにますます求められる大きな需要を満たすことを目指しています。

RDMA、UEC AI トランスポート、輻輳制御、高速回復機能を備えた AMD Pensando Pollara 400 AI NIC。

UEC のその他の利点としては、輻輳やパケット損失に関連する問題に対処するために設計された強化されたルーティング技術とネットワーク管理ソリューションなどがあります。

Pollara RDMA と RoCEv2 RPC のパフォーマンス チャート。ネットワーク効率の向上を強調表示しています。

要約すると、AMD の Pensando Pollara 400 AI UEC 対応 RDMA NIC は、4 Qpair の RoCEv2 と比較して 25% のパフォーマンス向上を示し、1 Qpair の RoCEv2 と比較して 40% の顕著な増加を示し、ネットワーク テクノロジーのリーダーとしての役割を確固たるものにしています。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です