AMD, 400GbE 속도 달성하는 최초의 “UEC 지원” Pensando Pollara 400 AI NIC 출시

AMD, 400GbE 속도 달성하는 최초의 “UEC 지원” Pensando Pollara 400 AI NIC 출시

AMD는 최근 Hot Chips 2025에서 혁신적인 Pensando Pollara 400 AI NIC를 공개하면서 업계 최초로 UEC(Ultra Ethernet Consortium) 지원 AI 네트워크 인터페이스 카드(NIC)를 출시했습니다.

AMD, 400GbE Pensando Pollara 400 AI NIC로 성능 25% 향상

AMD는 이전 개발 성과를 바탕으로 작년에 Pensando Pollara 400을 선보였습니다. AI 시스템용으로 특별히 설계된 이 최첨단 NIC는 400Gbps의 놀라운 대역폭을 자랑하며, NVIDIA의 ConnectX-7과 직접 경쟁합니다.하지만 NVIDIA는 최신 Blackwell Ultra 시스템에서 800GbE의 놀라운 속도를 제공하는 더욱 발전된 ConnectX-8도 출시했습니다.

AMD Pensando Pollara 400 AI NIC; 업계 최초의 Ultra Ethernet AI NIC, 400Gbps 속도.

Pensando Pollara 400에는 여러 가지 최첨단 기능이 탑재되어 있습니다.

  • 프로그래밍 가능한 하드웨어 파이프라인
  • 최대 1.25배 성능 향상
  • 400Gbps 처리량
  • 개방형 생태계 호환성
  • UEC Ready RDMA 기능
  • 작업 완료 시간 단축
  • 뛰어난 가용성
Infinity Fabric과 PCIe 스위치 연결을 사용한 AMD Instinct 시스템 아키텍처의 다이어그램입니다.

Pensando Networking 솔루션의 아키텍처는 AMD의 기존 데이터 센터 아키텍처, 특히 PCIe 스위치를 사용하여 NIC와 CPU를 효율적으로 연결하는 EPYC 및 Instinct 제품군과 긴밀하게 연관되어 있습니다.

AMD는 CPU, GPU, 네트워킹 하드웨어로 데이터 센터 솔루션을 발전시키고 있습니다.

중요한 점은 Pensando NIC가 PCIe 스위치 없이 작동하며 Gen5 x16 연결과 직접 연결된다는 것입니다.기본 아키텍처는 다음 다이어그램에 설명되어 있습니다.

NOC 상호 연결 및 P4DMA 구성 요소를 갖춘 AMD Pensando NIC 아키텍처를 보여주는 블록 다이어그램입니다.

Pensando Pollara 400 AI NIC는 P4 아키텍처를 활용하여 놀라운 효율성을 달성합니다.

패킷 처리 및 메모리 흐름 경로를 보여주는 AMD Pensando P4 아키텍처 다이어그램입니다.

이 아키텍처의 주요 구성 요소에는 패키지 헤더 벡터에서 테이블 키를 생성하고 데이터 유형에 따라 특정 메모리 읽기를 실행하는 테이블 엔진(TE)이 포함됩니다.

테이블 엔진 키 생성 및 메모리 액세스를 강조한 P4 파이프라인 구성 요소의 다이어그램입니다.

이 설계에는 필드 조작을 위한 최적화된 명령어를 활용하는 특수 프로세서인 MPU(Match Processing Unit)도 포함되어 있어 별도의 메모리, 테이블 및 PHV 인터페이스를 용이하게 합니다.

매치 처리 장치와 인터페이스를 보여주는 P4 파이프라인 구성 요소의 다이어그램입니다.

또한, va2pa(가상 주소에서 물리적 주소로) 변환 기능과 같은 혁신을 통해 시스템 성능이 더욱 향상됩니다.

컴퓨팅 아키텍처에서 가상 주소를 물리적 주소로 변환하는 프로세스의 흐름도.

원자 메모리 작업 측면에서 AMD는 효율성을 높이기 위해 이를 SRAM 시스템과 인접하게 구현했습니다.

SRAM 메모리의 이점을 포함한 원자 연산 개요에 대한 AMD의 개선 사항입니다.

파이프라인 캐시 일관성은 무효화/업데이트 논리를 사용하여 P4 일관성이 주소 범위 기반에서 효과적으로 작동하도록 보장합니다.

무효화/업데이트 논리를 설명하는 파이프라인 캐시 일관성 향상 다이어그램입니다.

AMD는 스케일아웃 네트워크 전반에서 AI 시스템 성능에 영향을 미치는 여러 가지 과제를 파악했습니다. ECMP 부하 분산과 관련된 비효율적인 링크 사용, 네트워크 혼잡, 패킷 손실 등의 문제는 전반적인 효율성을 저해합니다.

AI 확장형 네트워크: 시스템 성능과 혼잡, 패킷 손실과 같은 네트워크 문제 해결 과제.

또한 이 회사는 AI 네트워크가 일반 네트워크에 비해 활용률이 훨씬 높아 네트워크 대역폭 가용성의 한계를 뛰어넘는 경우가 많다고 강조합니다.

높은 네트워크 활용도: AI 백엔드 네트워크는 95% 활용도로 데이터 전송을 주도합니다.

AMD는 이러한 장애물을 극복하기 위한 핵심 솔루션으로 울트라 이더넷 컨소시엄(UEC)을 제시합니다. UEC는 AI 및 고성능 컴퓨팅(HPC) 애플리케이션에 필수적인 네트워킹 요구 사항을 대규모로 해결하도록 설계된 개방적이고 상호 운용 가능한 고성능 프레임워크를 구축합니다.

Ultra Ethernet Consortium: AI 및 HPC 요구 사항을 위한 개방적이고 확장 가능하며 비용 효율적인 이더넷입니다.

효율성과 경제성을 고려하여 설계된 UEC는 현대 데이터 네트워크에 점점 더 많이 가해지는 엄청난 수요를 충족하는 것을 목표로 합니다.

RDMA, UEC AI 전송, 혼잡 제어, 빠른 복구 기능을 갖춘 AMD Pensando Pollara 400 AI NIC.

UEC의 추가적인 장점으로는 혼잡 및 패킷 손실과 관련된 문제를 해결하도록 설계된 향상된 라우팅 기술과 네트워크 관리 솔루션이 있습니다.

Pollara RDMA와 RoCEv2 RPC 성능 차트는 네트워크 효율성 향상을 강조하고 있습니다.

요약하자면, AMD의 Pensando Pollara 400 AI UEC 지원 RDMA NIC는 4 Qpair를 사용하는 RoCEv2보다 성능이 25% 향상되었고, 1 Qpair를 사용하는 RoCEv2보다 무려 40% 증가하여 네트워킹 기술 분야의 선두주자로서의 역할을 확고히 했습니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다