AMD si prepara ad affrontare una sfida importante nel mercato degli acceleratori di intelligenza artificiale con le sue prossime serie Instinct MI400 e MI500, posizionandosi per competere con l’attuale predominio di NVIDIA.
Presentazione della serie AMD MI400: varianti e caratteristiche per il 2027
Al Financial Analyst Day 2025, AMD ha presentato i suoi prossimi acceleratori GPU AI serie MI400 e MI500, sottolineandone il ruolo nella strategia AI a lungo termine dell’azienda. Questo ciclo di lanci annuali è progettato per rafforzare la presenza di AMD nell’AI, mentre NVIDIA continua a essere leader in questo settore.

La serie MI400, il cui debutto è previsto per il prossimo anno, promette numerosi miglioramenti:
- Capacità e larghezza di banda HBM4 migliorate
- Supporto più ampio del formato AI con maggiore produttività
- Rete standardizzata su scala rack (UALoE, UAL, UEC)
Si stima che la serie MI400 raggiunga 40 PFLOPS (FP4) e 20 PFLOPS (FP8), raddoppiando di fatto la capacità di elaborazione dell’attuale popolare serie MI350.

Inoltre, la serie MI400 sfrutterà la tecnologia di memoria HBM4, con un aumento del 50% della capacità di memoria, dai precedenti 288 GB di HBM3e a ben 432 GB di HBM4. Questo aggiornamento si traduce in un’impressionante larghezza di banda di memoria di 19, 6 TB/s, superando significativamente gli 8 TB/s della serie MI350. Ogni GPU di questa serie vanta una larghezza di banda scalabile di 300 GB/s, il che rappresenta un importante passo avanti per la gamma Instinct di prossima generazione di AMD.

Confrontate con le GPU Vera Rubin di NVIDIA, le GPU Instinct MI400 di AMD presentano notevoli vantaggi:
- Capacità di memoria 1, 5 volte superiore rispetto alla concorrenza
- Larghezza di banda di memoria equivalente e FLOP (FP4 / FP8)
- Larghezza di banda scalabile 1, 5 volte maggiore

La serie MI400 è composta da due modelli principali: MI455X, destinato a carichi di lavoro scalabili di addestramento e inferenza AI, e MI430X, progettato per attività HPC e Sovereign AI, completo di funzionalità FP64 basate su hardware, elaborazione ibrida (CPU+GPU) e mantenendo la stessa memoria HBM4 della sua controparte.

Guardando al 2027, AMD prevede di introdurre la serie Instinct MI500, proseguendo il suo ciclo annuale di aggiornamento dei prodotti. Questa strategia mira a fornire rapidi progressi nella tecnologia AI per i data center, in linea con l’approccio di NVIDIA di fornire versioni standard e “Ultra”.Si prevede che la serie MI500 migliorerà significativamente le capacità di elaborazione, memoria e interconnessione, aumentando ulteriormente il vantaggio competitivo di AMD nel panorama dell’AI.
Confronto degli acceleratori AI AMD Instinct
| Nome dell’acceleratore | AMD Instinct MI500 | AMD Instinct MI400 | AMD Instinct MI350X | AMD Instinct MI325X | AMD Instinct MI300X | AMD Instinct MI250X |
|---|---|---|---|---|---|---|
| Architettura GPU | CDNA Next / UDNA | CDNA 5 | CDNA 4 | Aqua Vanjaram (CDNA 3) | Aqua Vanjaram (CDNA 3) | Aldebaran (CDNA 2) |
| Nodo di processo GPU | Da definire | Da definire | 3 nm | 5nm+6nm | 5nm+6nm | 6 nm |
| XCD (chiplet) | Da definire | 8 (MCM) | 8 (MCM) | 8 (MCM) | 8 (MCM) | 2 (MCM; 1 per dado) |
| Core GPU | Da definire | Da definire | 16.384 | 19.456 | 19.456 | 14.080 |
| Velocità di clock della GPU (massima) | Da definire | Da definire | 2400 MHz | 2100 MHz | 2100 MHz | 1700 MHz |
| Calcolo INT8 | Da definire | Da definire | 5200 TOP | 2614 TOP | 2614 TOP | 383 TOP |
| Matrice FP6/FP4 | Da definire | 40 PFLOP | 20 PFLOP | N / A | N / A | N / A |
| Matrice FP8 | Da definire | 20 PFLOP | 5 PFLOP | 2, 6 PFLOP | 2, 6 PFLOP | N / A |
| Matrice FP16 | Da definire | 10 PFLOP | 2, 5 PFLOP | 1.3 PFLOP | 1.3 PFLOP | 383 TFLOP |
| Vettore FP32 | Da definire | Da definire | 157, 3 TFLOP | 163, 4 TFLOP | 163, 4 TFLOP | 95, 7 TFLOP |
| Vettore FP64 | Da definire | Da definire | 78, 6 TFLOP | 81, 7 TFLOP | 81, 7 TFLOP | 47, 9 TFLOP |
| Memoria virtuale | Da definire | 432 GB HBM4 | 288 GB HBM3e | 256 GB HBM3e | 192 GB HBM3 | 128 GB HBM2e |
| Cache infinita | Da definire | Da definire | 256 MB | 256 MB | 256 MB | N / A |
| Orologio di memoria | Da definire | 19, 6 TB/s | 8, 0 Gbps | 5, 9 Gbps | 5, 2 Gbps | 3, 2 Gbps |
| Bus di memoria | Da definire | Da definire | 8192 bit | 8192 bit | 8192 bit | 8192 bit |
| Larghezza di banda della memoria | Da definire | Da definire | 8 TB/s | 6, 0 TB/s | 5, 3 TB/s | 3, 2 TB/s |
| Fattore di forma | Da definire | Da definire | OAM | OAM | OAM | OAM |
| Raffreddamento | Da definire | Da definire | Passivo / Liquido | Raffreddamento passivo | Raffreddamento passivo | Raffreddamento passivo |
| TDP (massimo) | Da definire | Da definire | 1400W (355X) | 1000W | 750W | 560W |
Lascia un commento