NVIDIA AI 服务器功耗增加 100 倍——全球能源供应是否足以满足 AI 不断增长的需求?

NVIDIA AI 服务器功耗增加 100 倍——全球能源供应是否足以满足 AI 不断增长的需求?

NVIDIA 人工智能服务器技术的最新发展表明,电力需求急剧增加,导致人们对快速增长下的可持续性产生了重大担忧。

NVIDIA 从 Ampere 到 Kyber 的过渡:功耗增长预测

随着人工智能领域加速提升计算能力,各大公司都热衷于硬件创新或构建庞大的人工智能集群。在OpenAI和Meta等领先公司的推动下,这一努力旨在实现通用人工智能(AGI)等里程碑式的目标,这促使制造商,尤其是NVIDIA,积极扩充其产品线。分析师Ray Wang最近的见解揭示了一个令人担忧的趋势:NVIDIA的每一代人工智能服务器都伴随着能源需求的大幅增长,从Ampere架构到全新的Kyber架构,预计功耗将增长100倍。

NVIDIA 服务器功率等级的飙升可归因于多种因素。一个突出的原因是特定机架内 GPU 数量的增加,这导致热设计功耗 (TDP) 等级逐代递增。例如,Hopper 架构的单机箱运行功率约为 10 kW,而 Blackwell 配置由于 GPU 密度更高,将这一数字推高至接近 120 kW。NVIDIA 并未回避为满足行业计算需求而不断提升的性能,然而这种增长轨迹引发了严重的能耗担忧。

图表显示服务器功率从 2020 年的 Ampere 10kW 增加到 2028 年的 Rubin Ultra 1000kW+,并标有服务器图像。

此外,先进的 NVLink/NVSwitch 技术等创新,以及先进的机架升级和更高的利用率,极大地促进了超大规模数据中心能源需求的增长。这种不断增长的需求已将大型科技公司之间的竞争转化为争夺最大 AI 机架规模园区的竞争,如今能源消耗指标已达到千兆瓦。预计在不久的将来,OpenAI 和 Meta 等公司的计算能力将扩大 10 吉瓦以上。

无品牌的服务器单元,带有可见的电缆和连接器,安装在通过管道连接的黑色服务器机架中。
图片来源:NVIDIA

为了更直观地了解这一能源消耗的规模,据估计,来自人工智能超大规模企业的1吉瓦能源需求可以为大约100万户美国家庭供电,这还不包括与冷却和电力输送相关的额外能源成本。这种不断增长的能源消耗表明,一些数据中心可能很快就需要相当于中等规模国家或美国一些大州的能源需求,这将引发地方和国家层面的严重能源担忧。

国际能源署 (IEA) 在 2025 年的研究预测,到 2030 年,人工智能的电力消耗可能会翻一番,几乎是现有电网增长率的四倍。此外,全球数据中心的快速建立可能会导致家庭用电成本上升,尤其是在这些重要基础设施附近的地区。因此,美国与其他参与人工智能竞赛的国家一样,面临着亟待关注的紧迫能源挑战。

来源和图片

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注