
Las GPU Blackwell de NVIDIA se han posicionado a la vanguardia del rendimiento de inferencia de IA, lo que genera márgenes de ganancia significativamente más altos para las empresas que aprovechan esta tecnología en comparación con sus competidores.
Software y optimizaciones integrales de IA de NVIDIA: una ventaja competitiva sobre AMD
Un análisis reciente de Morgan Stanley Research ofrece una comparación exhaustiva de los márgenes de beneficio y los costes operativos asociados a las cargas de trabajo de inferencia de IA entre diversos proveedores tecnológicos. Los resultados revelan que las empresas que funcionan como «fábricas» de inferencia de IA disfrutan de márgenes de beneficio superiores al 50 %, con NVIDIA como claro líder.

El estudio evaluó diversas fábricas de IA, en particular aquellas que requieren 100 MW de potencia, e incorporaba racks de servidores de varias empresas clave del sector, como NVIDIA, Google, AMD, AWS y Huawei. Entre ellas, destaca la plataforma de GPU GB200 NVL72 «Blackwell» de NVIDIA, que logró un impresionante margen de beneficio del 77, 6 % y unas ganancias estimadas de aproximadamente 3500 millones de dólares.
El pod TPU v6e de Google le sigue de cerca, con un margen de beneficio del 74, 9%, mientras que el Ultraserver Trn2 de AWS se sitúa en tercer lugar con un margen del 62, 5%.Se observa que otras soluciones tienen márgenes de beneficio de entre el 40% y el 50%, pero AMD tiene mucho terreno por recorrer, como lo indican sus métricas de rendimiento.

En marcado contraste, la transición de AMD a su última plataforma MI355X ha resultado en un preocupante margen de beneficio negativo del 28, 2 %.El modelo anterior, el MI300X, tuvo un rendimiento aún peor, con un asombroso margen de beneficio negativo del 64, 0 % en términos de rendimiento de inferencia de IA. El informe de Morgan Stanley también desglosa la generación de ingresos por chip por hora: el GB200 de NVIDIA alcanza los 7, 5 $ por hora, seguido del HGX H200 con 3, 7 $.En marcado contraste, el MI355X de AMD genera tan solo 1, 7 $ por hora, mientras que la mayoría de los demás competidores oscilan entre 0, 5 $ y 2 $, lo que indica el dominio de NVIDIA en este sector.

La importante ventaja de NVIDIA en la inferencia de IA se debe principalmente a su compatibilidad con FP4 y a las mejoras continuas de su pila de IA CUDA. La compañía ha tratado eficazmente varios de sus modelos de GPU anteriores, como Hopper e incluso Blackwell, con lo que podría compararse con un buen vino, mejorando gradualmente su rendimiento cada trimestre.
Si bien las plataformas MI300 y MI350 de AMD son adecuadas en términos de capacidades de hardware, la compañía aún enfrenta desafíos en la optimización del software para la inferencia de IA, un área en la que se necesitan mejoras críticamente.

Cabe destacar que Morgan Stanley también destacó que el Costo Total de Propiedad (TCO) de las plataformas MI300X de AMD alcanzó los $744 millones, comparable al de la plataforma GB200 de NVIDIA, que se estima en aproximadamente $800 millones. Esto indica que la estructura de costos de AMD podría no ser favorable en el panorama competitivo. El TCO estimado de $588 millones para el nuevo servidor MI355X es similar al de CloudMatrix 384 de Huawei, pero la mayor inversión inicial podría disuadir a los usuarios potenciales de elegir AMD, especialmente considerando el rendimiento superior de inferencia de IA de NVIDIA, que se proyecta que dominará el 85% del mercado de IA en los próximos años.
Mientras NVIDIA y AMD se esfuerzan por mantenerse a la par, NVIDIA lanzará su GPU Blackwell Ultra este año, prometiendo un aumento del 50 % en el rendimiento con respecto al modelo GB200 existente. Posteriormente, la próxima plataforma Rubin está programada para entrar en producción en el primer semestre de 2026, acompañada de Rubin Ultra y Feynman. Mientras tanto, AMD planea presentar la MI400 el próximo año para competir con Rubin y se espera que implemente varias optimizaciones de inferencia de IA para su línea MI400, lo que generará una interesante competencia dinámica en el segmento de la IA.
Fuentes de noticias: WallStreetCN, Jukanlosreve
Deja una respuesta