Los recientes avances en la tecnología de servidores de inteligencia artificial de NVIDIA revelan un sorprendente aumento en los requisitos de energía, lo que genera importantes preocupaciones respecto de la sostenibilidad frente al rápido crecimiento.
La transición de NVIDIA de Ampere a Kyber: una proyección del crecimiento del consumo energético
A medida que el sector de la IA avanza hacia capacidades informáticas mejoradas, las empresas se interesan por innovar en hardware o establecer clústeres de IA expansivos. Este esfuerzo, impulsado por empresas líderes como OpenAI y Meta que aspiran a hitos como la inteligencia artificial general (AGI), ha impulsado a los fabricantes, en particular a NVIDIA, a reforzar sus líneas de productos de forma agresiva. Análisis recientes del analista Ray Wang ilustran una tendencia preocupante: cada generación posterior de servidores de IA de NVIDIA se asocia con un aumento drástico de la demanda energética, como lo demuestra un aumento previsto de 100 veces en el consumo energético desde la generación Ampere hasta la nueva arquitectura Kyber.
Aumento del consumo de energía en las sucesivas generaciones de servidores de IA de NVDA.pic.twitter.com/BM4KSUEIbk
— Ray Wang (@rwang07) 15 de octubre de 2025
El aumento en la potencia de los servidores de NVIDIA se puede atribuir a múltiples factores. Una causa importante es el aumento de GPU dentro de un rack, lo que ha llevado a un aumento de la potencia de diseño térmico (TDP) a lo largo de las generaciones. Por ejemplo, mientras que la arquitectura Hopper operaba a unos 10 kW por chasis, las configuraciones Blackwell están elevando esta cifra a cerca de 120 kW debido a la mayor densidad de GPU. NVIDIA no ha dudado en aumentar su capacidad para satisfacer las demandas informáticas del sector; sin embargo, esta trayectoria de crecimiento plantea serias preocupaciones sobre el consumo energético.

Además, innovaciones como las tecnologías avanzadas NVLink/NVSwitch, junto con las generaciones de racks de vanguardia y las mayores tasas de utilización, han contribuido significativamente al aumento de la demanda energética de los centros de datos a gran escala. Esta creciente demanda ha convertido la competencia entre las grandes tecnológicas en una carrera por los campus de IA a escala de rack más grandes, donde las métricas de consumo energético ahora se miden en gigavatios. Se proyecta que empresas como OpenAI y Meta amplíen su capacidad de computación en más de 10 GW en un futuro próximo.

Para poner en perspectiva la magnitud de este consumo energético, se estima que 1 GW de demanda energética de los hiperescaladores de IA podría abastecer a aproximadamente un millón de hogares estadounidenses, sin considerar los costos energéticos adicionales asociados a la refrigeración y el suministro de energía. Este creciente consumo ilustra que algunos centros de datos podrían pronto requerir energía equivalente a la de países medianos o grandes estados de EE. UU., lo que genera serias preocupaciones energéticas a nivel local y nacional.
Un estudio de la Agencia Internacional de la Energía (AIE) para 2025 proyecta que la IA podría duplicar el consumo de electricidad para 2030, lo que casi cuadruplicaría la tasa de crecimiento actual de la red eléctrica. Además, el rápido establecimiento de centros de datos a nivel mundial podría generar un aumento en los costos de la electricidad doméstica, especialmente en las regiones cercanas a estas importantes infraestructuras. En consecuencia, Estados Unidos, junto con otras naciones involucradas en la carrera de la IA, se enfrenta a un desafío energético apremiante que requiere atención urgente.
Deja una respuesta