En el sector de la inteligencia artificial, que evoluciona rápidamente, NVIDIA se enfrenta a desafíos sin precedentes, no principalmente por parte de AMD o Intel, sino de Google, un competidor emergente que está reduciendo significativamente la brecha. El director ejecutivo de NVIDIA, Jensen Huang, es plenamente consciente de este panorama competitivo.
A primera vista, puede resultar sorprendente que Google lidere la carrera del hardware de IA, pero el gigante tecnológico sentó las bases al lanzar su primer chip de IA personalizado, la TPU (Unidad de Procesamiento Tensorial), en 2016, muy por delante de sus competidores. Recientemente, Google presentó su último avance, las TPU Ironwood de «séptima generación», un lanzamiento que ha generado gran expectación y ha creado el contexto para una reñida competencia entre NVIDIA y Google. En este artículo, analizamos los aspectos clave que demuestran la importancia de este enfrentamiento, centrándonos especialmente en los avances que aportan las TPU Ironwood de Google.
TPU Ironwood de Google: 192 GB de HBM y mejoras de rendimiento significativas
Las TPU Ironwood de Google se están preparando para su implementación en diversas cargas de trabajo y se espera que estén disponibles próximamente. Comercializado como un chip enfocado en la inferencia, Google afirma que Ironwood marca el comienzo de una nueva era en el rendimiento de la inferencia, mejorando la eficiencia en la computación de propósito general. La TPU v7 (Ironwood) está diseñada estratégicamente para sobresalir en la transición del entrenamiento de modelos a la inferencia, un proceso que está destinado a dominar el panorama tecnológico actual. A continuación, se presentan algunas especificaciones destacables:
- Mejora del rendimiento máximo 10 veces superior a la del TPU v5p.
- Rendimiento 4 veces mejor por chip tanto para entrenamiento como para inferencia en comparación con TPU v6e (Trillium).
- El chip de silicio personalizado más potente y eficiente energéticamente desarrollado por Google hasta la fecha.
Analizando las especificaciones con mayor detalle, el chip Ironwood cuenta con una impresionante memoria HBM de 192 GB y 7, 4 TB/s, y alcanza un rendimiento máximo de 4614 TFLOPs por chip, casi 16 veces superior al de la TPU v4. Además, con la introducción del Ironwood TPU Superpod, compuesto por 9216 chips, Google es capaz de ofrecer un rendimiento de 42, 5 exaFLOPS para cargas de trabajo de computación FP8 agregadas. Esta integración pone de relieve las innovadoras soluciones de interconexión de Google, que han superado a NVLink de NVIDIA en escalabilidad.

Con un enfoque en la interconectividad, Google emplea InterChip Interconnect (ICI), una red robusta diseñada para la escalabilidad. Esta tecnología permite la conexión de 43 bloques (cada uno con 64 chips) de Superpods a través de una red de 1, 8 petabytes. Al utilizar NIC para las comunicaciones internas y una disposición en forma de toroide 3D para las TPU, Google optimiza la interconectividad, mejorando así la escalabilidad y la densidad de chips, un aspecto en el que supera a las soluciones de NVIDIA.
| Especificación | Valor |
|---|---|
| Capacidad de cómputo máxima por chip (FP8) | ~ 4614 TFLOPS |
| Capacidad HBM por chip | 192 GB HBM3e |
| Ancho de banda de memoria por chip | ~ 7, 2 TB/s |
| Tamaño máximo de la cápsula (número de chips) | 9216 chips |
| Capacidad de cómputo máxima por pod | ~ 42, 5 ExaFLOPS |
| Memoria del sistema por pod (HBM) | ~ 1, 77 PB |
| Ancho de banda de interconexión entre chips (ICI) | ~ 1, 2 Tb/s por enlace |
| Mejora del rendimiento | ~ 16 veces más rápido que TPU v4 |
Las aspiraciones de Google en el ámbito de los ASIC: ¿Una amenaza real para la supremacía de NVIDIA en IA?
Al analizar la importancia de las TPU de Ironwood en la era actual de la inferencia, es fundamental reconocer la creciente relevancia de las capacidades de inferencia. Tradicionalmente, el entrenamiento de modelos dominaba el panorama de la IA, y las soluciones de computación de NVIDIA eran ampliamente utilizadas debido a su rendimiento superior en escenarios de entrenamiento. Sin embargo, a medida que los modelos convencionales se generalizan, las tareas de inferencia han aumentado drásticamente, superando con frecuencia las necesidades de entrenamiento.
El rendimiento de la inferencia no depende únicamente de los TFLOPS; factores como la latencia, el rendimiento, la eficiencia y el coste por consulta son cada vez más importantes. Al analizar la oferta de Ironwood de Google, resulta evidente por qué podría superar a NVIDIA en este aspecto. Por ejemplo, Ironwood cuenta con una considerable cantidad de memoria integrada, similar a la de las GPU de IA Blackwell B200 de NVIDIA. Aun así, la capacidad de clustering del SuperPod, con 9216 chips, amplía significativamente la capacidad total de memoria.

Una mayor capacidad de memoria es fundamental en escenarios de inferencia, ya que minimiza las demoras en la comunicación entre chips y mejora el rendimiento de latencia en modelos grandes, lo que refuerza el atractivo de Ironwood. Google ha diseñado Ironwood meticulosamente para un entorno de baja latencia, además de mejorar la eficiencia energética, un aspecto crucial para su éxito previsto.
La inferencia a hiperescala exige miles de chips capaces de procesar continuamente las consultas de forma eficiente, lo que convierte los costes de despliegue y operación en una prioridad frente al rendimiento bruto para los proveedores de servicios en la nube (CSP).Con este fin, Google ha logrado duplicar la eficiencia energética de Ironwood, lo que hace que sus TPU sean más viables económicamente para aplicaciones de inferencia a gran escala.

El paradigma de la competencia en IA está evolucionando: de simplemente alcanzar el mayor rendimiento en FLOPS a una batalla más compleja que abarca capacidades de procesamiento de consultas, reducción de latencia, costos operativos y eficiencia energética. Esta evolución ofrece a Google una nueva oportunidad para posicionarse rápidamente, aprovechando las posibles debilidades del dominio consolidado de NVIDIA en el campo de la IA. Cabe destacar que Ironwood estará disponible exclusivamente a través de Google Cloud, lo que podría fomentar la dependencia del ecosistema y poner en riesgo la posición establecida de NVIDIA. Los avances iterativos de las TPU de Google subrayan su carácter competitivo, señalando un cambio que debería influir en la planificación estratégica de NVIDIA.
Sin embargo, NVIDIA no se mantiene pasiva ante este nuevo desafío; en respuesta, presenta Rubin CPX, con el objetivo de consolidarse en un nicho de mercado importante con soluciones optimizadas para racks. No obstante, resulta cada vez más evidente que Google se está posicionando como un rival formidable para NVIDIA, mientras que Intel y AMD se encuentran actualmente rezagadas en influencia e innovación.
En un comentario notable, Jensen Huang reflexionó sobre las capacidades TPU de Google durante una entrevista anterior, reconociendo la complejidad y la competitividad de sus ofertas:
En ese sentido, uno de los debates clave más importantes es la cuestión de las GPU frente a los ASIC, las TPU de Google y Trainium de Amazon. Google…Empezaron con la TPU1 antes de que todo empezara. El reto para quienes desarrollan ASIC.
TPU está en TPU 7. Sí. Correcto. Y también supone un reto para ellos. Correcto. Por eso, el trabajo que realizan es increíblemente difícil.
Deja una respuesta