
NVIDIA ha presentato ufficialmente la sua ultima innovazione nella tecnologia di elaborazione basata sull’intelligenza artificiale, NVIDIA Blackwell Ultra, che segna un significativo miglioramento della capacità di memoria e delle capacità di elaborazione basate sull’intelligenza artificiale, progettate specificamente per i data center.
NVIDIA Blackwell Ultra: un balzo in avanti con prestazioni migliorate e un’enorme capacità di memoria
Dopo un inizio un po’ travagliato durante il lancio iniziale della serie Blackwell, NVIDIA ha apportato miglioramenti sostanziali alla disponibilità della sua soluzione AI all’avanguardia. Ciò è finalizzato a supportare i principali provider di AI e data center con innovazioni e soluzioni hardware di alto livello. Le serie originali di GPU B100 e B200 hanno fissato un livello elevato con la loro robusta potenza di calcolo AI, ma ora, la prossima Blackwell Ultra è pronta a ridefinire i benchmark del settore.
La prossima serie di GPU B300 non solo presenterà configurazioni di memoria migliorate, tra cui stack di memoria avanzati fino a 12-Hi HBM3E, ma offrirà anche prestazioni di elaborazione AI superiori per un’elaborazione accelerata. Questi nuovi chip si integreranno perfettamente con gli ultimi switch Ethernet Spectrum Ultra X800, che vantano una capacità di 512-radix, fornendo prestazioni di rete senza pari per applicazioni ad alto contenuto di dati.

Panoramica della roadmap GPU del data center NVIDIA
Nome in codice GPU | X | Rubino (Ultra) | Blackwell (Ultra) | Tramoggia | Ampere | Volta | Pasquale |
---|---|---|---|---|---|---|---|
Famiglia GPU | Modello GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU WeU | X100 | 100R | B100/B200 | Altezza 100/altezza 200 | A100 | V100 | Pagina 100 |
Memoria | HBM4e? | L’HBM4 | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | L’HBM2 | L’HBM2 |
Lancio | 202X | 2026-2027 | 2024-2025 | 2022-2024 | 2020-2022 | 2018 | 2016 |
Per informazioni più dettagliate su NVIDIA Blackwell Ultra, fare riferimento alla fonte.
Lascia un commento