NVIDIA AI サーバーの消費電力が 100 倍に増加 — 世界のエネルギー供給は AI の高まる需要に対応できるのか?

NVIDIA AI サーバーの消費電力が 100 倍に増加 — 世界のエネルギー供給は AI の高まる需要に対応できるのか?

NVIDIA の AI サーバー テクノロジーの最近の進歩により、電力要件が著しく増加していることが明らかになっており、急速な成長に直面した際の持続可能性に関して重大な懸念が生じています。

NVIDIAのAmpereからKyberへの移行:消費電力増加の予測

AI分野がコンピューティング能力の強化に向けて加速する中、企業はハードウェアの革新、あるいは大規模なAIクラスターの構築に熱心に取り組んでいます。OpenAIやMetaといった先進企業が汎用人工知能(AGI)といったマイルストーン達成を目指すこの取り組みは、メーカー、特にNVIDIAに製品ラインの積極的な強化を促しています。アナリストのRay Wang氏による最近の洞察は、憂慮すべき傾向を示しています。NVIDIAのAIサーバーは、世代が進むにつれてエネルギー需要が劇的に増加しており、Ampere世代から新しいKyberアーキテクチャへの移行に伴い、消費電力が100倍に増加すると予想されています。

NVIDIAのサーバー電力定格の急上昇は、複数の要因によるものです。主な原因の一つは、ラック内のGPU数の増加です。これにより、世代を重ねるごとに熱設計電力(TDP)定格が増加しています。例えば、Hopperアーキテクチャではシャーシあたり約10kWで動作していましたが、Blackwell構成ではGPU密度の向上により、この数値は120kW近くまで上昇しています。NVIDIAは業界のコンピューティング需要に応えるために成長をためらっていませんが、この成長軌道は深刻なエネルギー消費に関する懸念を引き起こしています。

2020 年の Ampere 10kW から 2028 年の Rubin Ultra 1000kW+ までのサーバー電力の増加を示すグラフ (サーバー画像付き)。

さらに、先進的なNVLink/NVSwitch技術などのイノベーション、最先端のラック世代、そして稼働率の向上は、ハイパースケールデータセンターのエネルギー需要の増加に大きく貢献しています。この需要の急増により、大手IT企業間の競争は、最大規模のAIラックスケールキャンパスをめぐる争いへと変貌を遂げ、エネルギー消費量はギガワット単位にまで達しています。OpenAIやMetaなどの企業は、近い将来、コンピューティング能力を10ギガワット以上拡大すると予測されています。

パイプで接続された黒いサーバー ラックに収納された、ケーブルとコネクタが見えるブランドのないサーバー ユニット。
画像クレジット: NVIDIA

このエネルギー消費の規模を概観すると、AIハイパースケーラーからの1GWのエネルギー需要は、冷却や電力供給に関連する追加のエネルギーコストを考慮に入れずとも、米国の約100万世帯に電力を供給できると推定されています。この消費量の増加は、一部のデータセンターが近い将来、中規模国や米国のかなり大きな州と同等のエネルギーを必要とする可能性があることを示しており、地域および国家レベルで深刻なエネルギー問題を引き起こしています。

国際エネルギー機関(IEA)の2025年の調査によると、AIの普及により2030年までに電力消費量が倍増し、既存の電力網の伸び率の約4倍に達する可能性があると予測されています。さらに、世界規模で急速にデータセンターが設立されれば、特にこれらの重要なインフラに近い地域では、家庭の電気料金が上昇する可能性があります。したがって、米国はAI競争に参入している他の国々と同様に、早急な対応を必要とする差し迫ったエネルギー問題に直面しています。

出典と画像

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です