NVIDIA Blackwell GB200 mejora las máquinas virtuales de Google Cloud A4 con una potencia de procesamiento 2,25 veces mayor y una mayor capacidad HBM

NVIDIA Blackwell GB200 mejora las máquinas virtuales de Google Cloud A4 con una potencia de procesamiento 2,25 veces mayor y una mayor capacidad HBM

Google Cloud ha logrado un avance significativo en el entrenamiento y desarrollo de IA con la introducción de su primer sistema NVIDIA Blackwell “GB200 NVL72”, diseñado específicamente para mejorar el rendimiento de OpenAI.

Ampliación de los sistemas NVIDIA Blackwell GB200 en Google Cloud y Azure AI Service

OpenAI experimentará un aumento sustancial en las capacidades computacionales gracias a la implementación del sistema NVL72 GB200 de NVIDIA, conocido como “Blackwell”.Si bien NVIDIA ha respaldado a OpenAI durante mucho tiempo con sus modelos de IA avanzados, esta última integración con Google Cloud significa un avance crucial en el aprovechamiento de las potentes GPU de los centros de datos para mejorar el entrenamiento de IA.

Además de Google Cloud, Microsoft también ha presentado sus instancias iniciales de Azure con las GPU Blackwell de última generación de NVIDIA. En una publicación reciente en X, el director ejecutivo de OpenAI, Sam Altman, destacó la implementación de los ocho racks completos del sistema GB200 NVL72 dentro de Microsoft Azure. Altman expresó su gratitud tanto al director ejecutivo de Microsoft, Satya Nadella, como al director ejecutivo de NVIDIA, Jensen Huang, por facilitar esta colaboración, que posiciona a Microsoft como un proveedor líder de servicios en la nube para cargas de trabajo impulsadas por IA.

La configuración de vanguardia NVIDIA Blackwell GB200 NVL72 consta de 36 CPU Grace y 72 GPU Blackwell dispuestas en una arquitectura a escala de rack. Con un total de ocho racks implementados, el sistema proporciona una capacidad impresionante de 288 CPU Grace y unas asombrosas 576 GPU B200. Esta configuración puede ofrecer una destreza computacional notable, ya que cada rack puede generar hasta 6480 TFLOPS de rendimiento FP32 y 3240 TFLOPS de FP64. Cuando se agregan en ocho racks, el potencial total aumenta a aproximadamente 51 840 TFLOPS de FP32 y 25 920 TFLOPS de FP64.

Esta capacidad computacional excepcional convierte al servicio Azure OpenAI en un recurso invaluable para las empresas que buscan mejorar su eficiencia operativa. NVIDIA “Blackwell”GB200 NVL72 está diseñado específicamente para cargas de trabajo de IA generativa a gran escala y cuenta con un impresionante ancho de banda de memoria de hasta 576 TB/s, al tiempo que facilita el procesamiento paralelo avanzado.

Sistema NVIDIA Blackwell

Actualmente, OpenAI utiliza una variedad de modelos de GPU NVIDIA, incluidos los V100, H100 y A100; sin embargo, el Blackwell B200 surge como el chip GPU más sofisticado, ofreciendo mejoras de rendimiento sustanciales en comparación con sus predecesores. Con la inversión de Microsoft de casi $14 mil millones en OpenAI, es evidente que la empresa tiene como objetivo brindar a sus clientes acceso a las máquinas más potentes disponibles en el mercado.

Fuente e imágenes

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *