
A AMD revelou recentemente sua inovadora placa de rede de IA Pensando Pollara 400 na Hot Chips 2025, marcando a introdução da primeira placa de interface de rede de IA (NIC) pronta para Ultra Ethernet Consortium (UEC) do setor.
AMD melhora o desempenho em 25% com a placa de rede AI Pensando Pollara 400 de 400 GbE
Dando continuidade ao seu desenvolvimento anterior, a AMD apresentou a Pensando Pollara 400 no ano passado. Esta placa de rede de última geração, projetada especificamente para sistemas de IA, ostenta uma largura de banda impressionante de 400 Gbps, competindo diretamente com o ConnectX-7 da NVIDIA. No entanto, a NVIDIA também lançou o ConnectX-8, mais avançado, que oferece velocidades impressionantes de 800 GbE com seus mais recentes sistemas Blackwell Ultra.

O Pensando Pollara 400 vem com vários recursos de ponta:
- Pipeline de Hardware Programável
- Melhoria de desempenho de até 1, 25x
- Taxa de transferência de 400 Gbps
- Compatibilidade com Ecossistemas Abertos
- Recursos RDMA prontos para UEC
- Tempo de conclusão do trabalho reduzido
- Disponibilidade Excepcional

A arquitetura das soluções da Pensando Networking está intimamente alinhada com as arquiteturas de data center existentes da AMD, particularmente as famílias EPYC e Instinct, que utilizam switches PCIe para conectar NICs e CPUs de forma eficiente.

Importante ressaltar que a placa de rede Pensando opera sem um switch PCIe e se conecta diretamente a uma conexão Gen5 x16. A arquitetura subjacente é descrita no diagrama a seguir:

Por meio da utilização de uma arquitetura P4, a placa de rede AI Pensando Pollara 400 atinge eficiência notável.

Os componentes significativos da arquitetura abrangem o Table Engine (TE), responsável por gerar chaves de tabela a partir do vetor de cabeçalho do pacote, além de executar leituras de memória específicas com base no tipo de dados.

O design também apresenta uma Unidade de Processamento de Correspondência (MPU), um processador especializado que utiliza opcodes otimizados para manipulação de campo, facilitando interfaces distintas de memória, tabela e PHV.

Além disso, inovações como recursos de tradução de endereço virtual para endereço físico (va2pa) melhoram ainda mais o desempenho do sistema.

Em termos de operações de memória atômica, a AMD as implementou adjacentes aos sistemas SRAM para maior eficiência.

O Pipeline Cache Coherency emprega lógica de invalidação/atualização, garantindo que a coerência P4 opere efetivamente com base em um intervalo de endereços.

A AMD identifica diversos desafios que impactam o desempenho dos sistemas de IA em redes escaláveis. Problemas como utilização ineficiente de links vinculados ao balanceamento de carga ECMP, congestionamento da rede e perda de pacotes prejudicam a eficácia geral.

A empresa também destaca que as redes de IA apresentam taxas de utilização significativamente maiores em comparação às redes de uso geral, muitas vezes ultrapassando os limites da disponibilidade de largura de banda da rede.

A AMD apresenta o Consórcio Ultra Ethernet (UEC) como uma solução vital para superar esses obstáculos. O UEC promove uma estrutura aberta, interoperável e de alto desempenho, projetada para atender aos requisitos de rede essenciais para aplicações de IA e computação de alto desempenho (HPC) em escala.

Projetada para eficiência e acessibilidade, a UEC visa atender às demandas significativas cada vez mais colocadas nas redes de dados modernas.

As vantagens adicionais do UEC incluem técnicas aprimoradas de roteamento e soluções de gerenciamento de rede projetadas para resolver problemas relacionados a congestionamento e perda de pacotes.

Em resumo, a NIC RDMA Pensando Pollara 400 AI UEC-ready da AMD demonstra uma melhoria de desempenho de 25% em comparação ao RoCEv2 com 4 Qpairs e um aumento notável de 40% em relação ao RoCEv2 com 1 Qpair, consolidando seu papel como líder em tecnologia de rede.
Deixe um comentário