AMD lança a primeira placa de rede de IA Pensando Pollara 400 “preparada para UEC”, atingindo velocidades de 400 GbE

AMD lança a primeira placa de rede de IA Pensando Pollara 400 “preparada para UEC”, atingindo velocidades de 400 GbE

A AMD revelou recentemente sua inovadora placa de rede de IA Pensando Pollara 400 na Hot Chips 2025, marcando a introdução da primeira placa de interface de rede de IA (NIC) pronta para Ultra Ethernet Consortium (UEC) do setor.

AMD melhora o desempenho em 25% com a placa de rede AI Pensando Pollara 400 de 400 GbE

Dando continuidade ao seu desenvolvimento anterior, a AMD apresentou a Pensando Pollara 400 no ano passado. Esta placa de rede de última geração, projetada especificamente para sistemas de IA, ostenta uma largura de banda impressionante de 400 Gbps, competindo diretamente com o ConnectX-7 da NVIDIA. No entanto, a NVIDIA também lançou o ConnectX-8, mais avançado, que oferece velocidades impressionantes de 800 GbE com seus mais recentes sistemas Blackwell Ultra.

Placa de rede AI AMD Pensando Pollara 400; a primeira placa de rede AI Ultra Ethernet do setor, velocidade de 400 Gbps.

O Pensando Pollara 400 vem com vários recursos de ponta:

  • Pipeline de Hardware Programável
  • Melhoria de desempenho de até 1, 25x
  • Taxa de transferência de 400 Gbps
  • Compatibilidade com Ecossistemas Abertos
  • Recursos RDMA prontos para UEC
  • Tempo de conclusão do trabalho reduzido
  • Disponibilidade Excepcional
Diagrama da arquitetura do sistema AMD Instinct com conexões de switch Infinity Fabric e PCIe.

A arquitetura das soluções da Pensando Networking está intimamente alinhada com as arquiteturas de data center existentes da AMD, particularmente as famílias EPYC e Instinct, que utilizam switches PCIe para conectar NICs e CPUs de forma eficiente.

AMD avança soluções de data center com CPUs, GPUs e hardware de rede.

Importante ressaltar que a placa de rede Pensando opera sem um switch PCIe e se conecta diretamente a uma conexão Gen5 x16. A arquitetura subjacente é descrita no diagrama a seguir:

Diagrama de blocos mostrando a arquitetura da placa de rede AMD Pensando com interconexão NOC e componentes P4DMA.

Por meio da utilização de uma arquitetura P4, a placa de rede AI Pensando Pollara 400 atinge eficiência notável.

Diagrama de arquitetura do AMD Pensando P4 mostrando o processamento de pacotes e os caminhos do fluxo de memória.

Os componentes significativos da arquitetura abrangem o Table Engine (TE), responsável por gerar chaves de tabela a partir do vetor de cabeçalho do pacote, além de executar leituras de memória específicas com base no tipo de dados.

Diagrama dos componentes do pipeline P4 destacando a geração de chaves do Table Engine e o acesso à memória.

O design também apresenta uma Unidade de Processamento de Correspondência (MPU), um processador especializado que utiliza opcodes otimizados para manipulação de campo, facilitando interfaces distintas de memória, tabela e PHV.

Diagrama dos componentes do pipeline P4 mostrando a unidade de processamento de correspondência e as interfaces.

Além disso, inovações como recursos de tradução de endereço virtual para endereço físico (va2pa) melhoram ainda mais o desempenho do sistema.

Fluxograma do processo de tradução de endereço virtual para físico na arquitetura de computação.

Em termos de operações de memória atômica, a AMD as implementou adjacentes aos sistemas SRAM para maior eficiência.

Visão geral dos aprimoramentos da AMD em operações atômicas com benefícios para a memória SRAM.

O Pipeline Cache Coherency emprega lógica de invalidação/atualização, garantindo que a coerência P4 opere efetivamente com base em um intervalo de endereços.

Diagrama de melhorias de coerência de cache de pipeline com explicação de lógica de invalidação/atualização.

A AMD identifica diversos desafios que impactam o desempenho dos sistemas de IA em redes escaláveis. Problemas como utilização ineficiente de links vinculados ao balanceamento de carga ECMP, congestionamento da rede e perda de pacotes prejudicam a eficácia geral.

Rede de expansão de IA: desafios no desempenho do sistema e problemas de rede, como congestionamento e perda de pacotes.

A empresa também destaca que as redes de IA apresentam taxas de utilização significativamente maiores em comparação às redes de uso geral, muitas vezes ultrapassando os limites da disponibilidade de largura de banda da rede.

Alta utilização da rede: redes de backend de IA impulsionam transferências de dados com 95% de utilização.

A AMD apresenta o Consórcio Ultra Ethernet (UEC) como uma solução vital para superar esses obstáculos. O UEC promove uma estrutura aberta, interoperável e de alto desempenho, projetada para atender aos requisitos de rede essenciais para aplicações de IA e computação de alto desempenho (HPC) em escala.

Ultra Ethernet Consortium: Ethernet aberta, escalável e econômica para demandas de IA e HPC.

Projetada para eficiência e acessibilidade, a UEC visa atender às demandas significativas cada vez mais colocadas nas redes de dados modernas.

Placa de rede AMD Pensando Pollara 400 AI com RDMA, transporte UEC AI, controle de congestionamento e recuperação rápida.

As vantagens adicionais do UEC incluem técnicas aprimoradas de roteamento e soluções de gerenciamento de rede projetadas para resolver problemas relacionados a congestionamento e perda de pacotes.

Gráfico de desempenho Pollara RDMA vs RoCEv2 RPC, destacando ganhos de eficiência de rede.

Em resumo, a NIC RDMA Pensando Pollara 400 AI UEC-ready da AMD demonstra uma melhoria de desempenho de 25% em comparação ao RoCEv2 com 4 Qpairs e um aumento notável de 40% em relação ao RoCEv2 com 1 Qpair, consolidando seu papel como líder em tecnologia de rede.

Fonte e Imagens

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *