NVIDIA AI 서버의 전력 소비량이 100배 증가했습니다. 글로벌 에너지 공급이 AI 수요 증가에 충분할까요?

NVIDIA AI 서버의 전력 소비량이 100배 증가했습니다. 글로벌 에너지 공급이 AI 수요 증가에 충분할까요?

NVIDIA의 AI 서버 기술이 최근 발전하면서 전력 요구 사항이 눈에 띄게 급증했고, 이로 인해 급속한 성장에 직면한 지속 가능성에 대한 심각한 우려가 제기되고 있습니다.

NVIDIA의 Ampere에서 Kyber로의 전환: 전력 소비 증가 예측

AI 분야가 컴퓨팅 역량 강화를 향해 나아가면서 기업들은 하드웨어 혁신이나 광범위한 AI 클러스터 구축에 적극적으로 나서고 있습니다. OpenAI와 Meta와 같은 선도 기업들이 인공 일반 지능(AGI)과 같은 획기적인 발전을 목표로 추진하는 이러한 노력은 제조업체, 특히 NVIDIA가 제품 라인을 공격적으로 강화하도록 이끌었습니다.애널리스트 레이 왕(Ray Wang)의 최근 분석에 따르면 우려스러운 추세가 나타났습니다. NVIDIA의 AI 서버는 세대가 거듭될수록 에너지 수요가 급격히 증가하며, 특히 암페어(Ampere) 세대에서 새로운 카이버(Kyber) 아키텍처로 전환될 경우 전력 소비량이 100배 증가할 것으로 예상됩니다.

엔비디아 서버 전력 등급의 급증은 여러 요인에 기인합니다.가장 큰 원인 중 하나는 랙 내 GPU 증가로, 세대를 거듭하며 열 설계 전력(TDP) 등급이 증가한 것입니다.예를 들어, 호퍼 아키텍처는 섀시당 약 10kW로 작동했지만, 블랙웰 아키텍처는 GPU 밀도가 높아져 이 수치가 120kW에 육박합니다.엔비디아는 업계의 컴퓨팅 수요를 충족하기 위해 전력을 꾸준히 늘려왔지만, 이러한 성장 추세는 심각한 에너지 소비 문제를 야기합니다.

2020년 Ampere 10kW에서 2028년 Rubin Ultra 1000kW+로 서버 전력이 증가한 것을 보여주는 그래프.서버 이미지로 표시되어 있습니다.

또한, 첨단 NVLink/NVSwitch 기술과 같은 혁신과 최첨단 랙 세대 및 활용률 향상은 하이퍼스케일 데이터센터의 에너지 수요 증가에 크게 기여했습니다.이러한 수요 증가로 인해 빅테크 기업들 간의 경쟁은 최대 규모의 AI 랙 스케일 캠퍼스 확보 경쟁으로 치열해졌으며, 에너지 소비량은 현재 기가와트 단위로 측정되고 있습니다. OpenAI와 Meta와 같은 기업들은 가까운 미래에 컴퓨팅 용량을 10GW 이상 확장할 것으로 예상됩니다.

눈에 보이는 케이블과 커넥터가 있는 무상표 서버 장치는 파이프로 연결된 검은색 서버 랙에 들어 있습니다.
이미지 출처: NVIDIA

이러한 에너지 소비 규모를 가늠해 보면, AI 하이퍼스케일러에서 발생하는 1GW의 에너지 수요는 냉방 및 전력 공급에 따른 추가 에너지 비용을 고려하지 않은 상태에서도 미국 내 약 100만 가구에 전력을 공급할 수 있는 것으로 추산됩니다.이러한 에너지 소비 증가는 일부 데이터 센터가 머지않아 중간 규모 국가나 규모가 큰 미국 주와 맞먹는 에너지를 필요로 할 수 있음을 시사하며, 이는 심각한 지역 및 국가 차원의 에너지 문제를 야기할 수 있습니다.

국제에너지기구(IEA) 의 2025년 연구 에 따르면 AI는 2030년까지 전력 소비량을 두 배로 증가시켜 기존 전력망 성장률의 거의 네 배에 달할 것으로 예상됩니다.더욱이 전 세계적으로 데이터 센터가 급속도로 구축됨에 따라, 특히 이러한 주요 인프라와 인접한 지역의 가정용 전기 요금이 상승할 수 있습니다.결과적으로 미국을 비롯한 AI 경쟁에 참여하는 다른 국가들도 긴급한 에너지 문제에 직면하고 있으며, 이는 시급한 관심이 필요합니다.

출처 및 이미지

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다