
El superchip de inteligencia artificial NVIDIA Blackwell recientemente lanzado, conocido como GB300, supera significativamente a su predecesor, la GPU H100, al optimizar el paralelismo tensorial para brindar un rendimiento de procesamiento mucho mejor.
NVIDIA GB300: memoria y ancho de banda mejorados que logran un rendimiento superior al de H100
La introducción de los superchips de IA de NVIDIA con tecnología Blackwell marca un avance fundamental en la tecnología de GPU. El GB300 representa el producto más avanzado de NVIDIA hasta la fecha, con notables mejoras en la capacidad computacional, además de una mayor capacidad de memoria y ancho de banda. Estas mejoras son cruciales para gestionar tareas de IA exigentes. Un benchmark reciente realizado por CoreWeave ilustra el potencial del GB300: logra un rendimiento notablemente mayor gracias a la reducción del paralelismo tensorial.
En las pruebas realizadas por CoreWeave con el modelo de razonamiento DeepSeek R1, un complejo framework de IA, se observó una notable diferencia entre ambas plataformas. Para ejecutar el modelo DeepSeek R1 se necesitó un clúster de 16 GPU NVIDIA H100, mientras que solo cuatro GPU GB300 en la infraestructura NVIDIA GB300 NVL72 fueron suficientes para completar la misma tarea. Cabe destacar que el sistema GB300 es capaz de ofrecer seis veces más rendimiento bruto por GPU, lo que subraya su superior rendimiento en cargas de trabajo de IA complejas en comparación con el H100.

Los resultados demuestran una ventaja significativa para el GB300, que aprovecha una configuración simplificada de paralelismo tensorial de 4 vías. Esta reducción del paralelismo mejora la comunicación entre GPU, mientras que la mayor capacidad de memoria y ancho de banda contribuyen a mejoras sustanciales en el rendimiento. La plataforma GB300 NVL72 se beneficia de las interconexiones NVLink y NVSwitch de alto ancho de banda, lo que facilita el intercambio rápido de datos entre GPU.
Este avance tecnológico se traduce en beneficios tangibles para los usuarios, ya que permite una generación de tokens más rápida y una latencia reducida, lo que permite un escalado más eficaz de las operaciones de IA en entornos empresariales. CoreWeave ha destacado las extraordinarias especificaciones del sistema NVIDIA GB300 NVL72 a escala de rack, que cuenta con una impresionante capacidad de memoria de 37 TB (con potencial para soportar hasta 40 TB), ideal para gestionar modelos de IA grandes y complejos, además de capacidades de interconexión que alcanzan hasta 130 TB/s de ancho de banda de memoria.

En definitiva, la NVIDIA GB300 va más allá de ofrecer impresionantes TFLOPs; también prioriza la eficiencia operativa. Al minimizar el paralelismo tensorial, la GB300 reduce la sobrecarga de comunicación entre GPU, lo que suele dificultar los procesos de entrenamiento e inferencia de IA a gran escala. Como resultado, las empresas ahora pueden lograr un rendimiento significativamente mayor con menos GPU, lo que se traduce en una reducción de costes y una mayor escalabilidad en sus implementaciones de IA.
Fuente de la noticia: CoreWeave
Deja una respuesta