
NVIDIA ha presentado oficialmente su último avance en tecnología de computación de IA, NVIDIA Blackwell Ultra, que marca una mejora significativa en la capacidad de memoria y las capacidades de computación de IA diseñadas específicamente para centros de datos.
NVIDIA Blackwell Ultra: Un gran avance con un rendimiento mejorado y una enorme capacidad de memoria
Tras un inicio algo inestable durante el lanzamiento inicial de la serie Blackwell, NVIDIA ha implementado mejoras sustanciales en la disponibilidad de su solución de IA de vanguardia. Esto tiene como objetivo apoyar a los principales proveedores de IA y centros de datos con innovaciones y soluciones de hardware de primer nivel. Las series originales de GPU B100 y B200 establecieron un alto estándar con su robusta potencia computacional para IA, pero ahora, la próxima Blackwell Ultra está lista para redefinir los estándares de la industria.
La próxima serie de GPU B300 no solo ofrecerá configuraciones de memoria mejoradas, incluyendo pilas de memoria avanzadas de hasta 12 Hi HBM3E, sino que también ofrecerá un rendimiento superior de computación de IA para un procesamiento más rápido. Estos nuevos chips se integrarán a la perfección con los últimos conmutadores Ethernet Spectrum Ultra X800, que cuentan con capacidad de 512 radix, lo que proporciona un rendimiento de red inigualable para aplicaciones con un alto consumo de datos.

Descripción general de la hoja de ruta de GPU para centros de datos de NVIDIA
Nombre en clave de la GPU | incógnita | Rubin (Ultra) | Blackwell (Ultra) | Tolva | Amperio | Tiempo | Pascal |
---|---|---|---|---|---|---|---|
Familia de GPU | GX200 | GR100 | GB200 | GH200/GH100 | GA100 | GV100 | GP100 |
GPU WeU | X100 | 100 rands | B100/B200 | H100/H200 | A100 | V100 | P100 |
Memoria | ¿HBM4e? | HBM4 | HBM3e | HBM2e/HBM3/HBM3e | HBM2e | HBM2 | HBM2 |
Lanzamiento | 202X | 2026-2027 | 2024-2025 | 2022-2024 | 2020-2022 | 2018 | 2016 |
Para obtener información más detallada sobre NVIDIA Blackwell Ultra, consulte la fuente.
Deja una respuesta