
Junto com a recente revelação de sua série MI350, a AMD está fornecendo uma prévia emocionante de sua próxima série Instinct MI400 de última geração, que deve estrear em 2026.
Destacando os recursos excepcionais do AMD Instinct MI400
O acelerador Instinct MI400 da AMD parece aprimorar significativamente seus recursos de hardware, apresentando um desempenho computacional que quase dobra o da série MI350. As especificações oficiais indicam que o MI400 fornecerá impressionantes 40 PFLOPs para operações de FP4 e 20 PFLOPs para cálculos de FP8, efetivamente dobrando o poder de computação em comparação com a série MI350 contemporânea.
Além disso, a AMD está capitalizando as vantagens da tecnologia de memória HBM4 para a série MI400. Esta nova geração apresentará um aumento de 50% na capacidade de memória, passando de 288 GB HBM3e para 432 GB HBM4. O padrão HBM4 introduz uma largura de banda impressionante de 19, 6 TB/s, que é mais que o dobro da largura de banda de 8 TB/s encontrada na série MI350. Além disso, cada GPU suportará largura de banda escalável de 300 GB/s, anunciando uma melhoria substancial no desempenho da próxima geração de aceleradores Instinct.
Em anúncios anteriores, detalhes sobre o acelerador Instinct MI400 revelaram a integração de até quatro Accelerated Compute Dies (XCDs), um avanço significativo em relação aos dois XCDs utilizados nos modelos MI300. Notavelmente, o MI400 incluirá dois Active Interposer Dies (AIDs) e também separará os dies de multimídia e E/S, aprimorando a funcionalidade e a eficiência gerais.

Cada AID virá equipado com um bloco MID dedicado, garantindo comunicação otimizada entre as unidades de computação e as interfaces de E/S, uma melhoria em relação às gerações anteriores. A série MI350 já utilizava o Infinity Fabric para comunicação entre os chips, portanto, podemos antecipar avanços ainda maiores com a arquitetura do MI400.
Visando tarefas de IA em larga escala
A série MI400 visa atender às crescentes demandas de treinamento de IA em larga escala e tarefas de inferência, aproveitando a nova arquitetura CDNA-Next, que pode ser renomeada como UDNA em esforços para unificar as arquiteturas RDNA e CDNA para AMD.

Comparação dos aceleradores AMD Instinct AI
Nome do Acelerador | AMD Instinct MI400 | AMD Instinct MI350X | AMD Instinct MI325X | AMD Instinct MI300X | AMD Instinct MI250X |
---|---|---|---|---|---|
Arquitetura de GPU | CDNA Next / UDNA | CDNA 4 | Água Vanjaram (CDNA 3) | Água Vanjaram (CDNA 3) | Aldebaran (CDNA 2) |
Nó de processo da GPU | A definir | 3 nm | 5 nm + 6 nm | 5 nm + 6 nm | 6 nm |
XCDs (Chiplets) | 8 (MCM) | 8 (MCM) | 8 (MCM) | 8 (MCM) | 2 (MCM), 1 (Por dado) |
Núcleos de GPU | A definir | A definir | 19.456 | 19.456 | 14.080 |
Velocidade do clock da GPU | A definir | A definir | 2100 MHz | 2100 MHz | 1700 MHz |
INT8 Computação | A definir | A definir | 2614 TOPS | 2614 TOPS | 383 TOPs |
Computação FP6/FP4 | A definir | 20 PFLOPs | N / D | N / D | N / D |
Computação FP8 | A definir | 10 PFLOPs | 2.6 PFLOPs | 2.6 PFLOPs | N / D |
FP16 Computação | A definir | 5 PFLOPs | 1.3 PFLOPs | 1.3 PFLOPs | 383 TFLOPs |
Computação FP32 | A definir | A definir | 163, 4 TFLOPs | 163, 4 TFLOPs | 95, 7 TFLOPs |
Computação FP64 | A definir | 79 TFLOPs | 81, 7 TFLOPs | 81, 7 TFLOPs | 47, 9 TFLOPs |
VRAM | A definir | 288 HBM3e | 256 GB HBM3e | 192 GB HBM3 | 128 GB HBM2e |
Cache Infinito | A definir | A definir | 256 MB | 256 MB | N / D |
Relógio de memória | A definir | 8, 0 Gbps | 5, 9 Gbps | 5, 2 Gbps | 3, 2 Gbps |
Barramento de memória | A definir | 8192 bits | 8192 bits | 8192 bits | 8192 bits |
Largura de banda de memória | A definir | 8 TB/s | 6, 0 TB/s | 5, 3 TB/s | 3, 2 TB/s |
Fator de forma | A definir | OAM | OAM | OAM | OAM |
Resfriamento | A definir | Resfriamento Passivo | Resfriamento Passivo | Resfriamento Passivo | Resfriamento Passivo |
TDP (máx.) | A definir | 1400 W (355X) | 1000 W | 750 W | 560 W |
Para obter informações e insights mais detalhados, acesse o artigo completo sobre as próximas inovações da AMD.
Deixe um comentário