
Este artículo no constituye asesoramiento financiero. El autor no mantiene ninguna posición en las acciones mencionadas.
Google está impulsando activamente sus unidades de procesamiento tensor (TPU) de IA, posicionándose frente a NVIDIA en el cambiante panorama del hardware de IA. El mercado ha estado debatiendo si invertir en las costosas GPU de IA de NVIDIA o considerar alternativas internas más asequibles. Informes recientes indicaron una fuerte caída en las acciones de Amazon, con una caída del 9, 8 % tras sus resultados del segundo trimestre. Esta caída se ha atribuido a una disminución en los ingresos por computación en la nube, que, según los analistas, se debe a la decisión de Amazon de utilizar sus propios chips de IA Trainium en lugar de los de NVIDIA. En respuesta, se informa que Google está colaborando con empresas de computación en la nube más pequeñas para integrar sus chips TPU con las GPU de NVIDIA.
Google apunta a la integración de TPU con las GPU NVIDIA en los centros de datos
Un informe de junio destacó que OpenAI estaba aprovechando las TPU de Google para mejorar ChatGPT y varios servicios de IA. Si bien esta afirmación se basó en una sola fuente, incluso si fuera precisa, probablemente represente un aumento marginal en la dependencia de OpenAI del hardware de Google. The Information informó posteriormente sobre una iniciativa en la que Google está contactando a proveedores de infraestructura en la nube más pequeños para proponer la inclusión de sus TPU junto con las GPU NVIDIA, más reconocidas. Esta estrategia parece diseñada para fomentar la demanda de los productos de Google en un entorno competitivo.

Según The Information, la intención de Google de promover las TPU va más allá de simplemente desafiar el dominio de NVIDIA. Un factor crucial podría ser la limitación de capacidad de Google; si bien cuenta con un suministro suficiente de chips, la compañía no puede expandir rápidamente la infraestructura de su centro de datos para utilizar las GPU en la medida de lo posible. En consecuencia, Google podría depender de centros de datos de terceros equipados con sus TPU para satisfacer sus necesidades internas de computación de IA.
El escrutinio sobre las GPU de IA de NVIDIA y las estrategias de los gigantes tecnológicos en cuanto a la fabricación interna de chips se ha intensificado tras el último informe de resultados de Amazon. Esta revelación provocó inicialmente una caída de casi el 10 % en el precio de las acciones de Amazon, ya que los inversores expresaron su preocupación por un posible estancamiento en el crecimiento de la computación en la nube, impulsado por la dependencia de Trainium. Un informe reciente de New Street destaca que persisten los desafíos para la adopción de Amazon Web Services (AWS), lo que indica una preferencia por las GPU sobre Trainium, especialmente por parte de Anthropic, un actor clave en el desarrollo de modelos de IA.
Si bien los incentivos financieros de los chips propietarios resultan atractivos para las grandes empresas tecnológicas, NVIDIA sostiene que sus GPU ofrecen un rendimiento y una eficiencia inigualables. La competencia en la tecnología de chips de IA se intensifica cada vez más, y cada empresa se esfuerza por demostrar su superioridad en un campo cada vez más importante.
Deja una respuesta