AI 演算法越來越強,但背後的電力需求也正以驚人速度飆升。根據分析師 Ray Wang 公開的資料,NVIDIA 幾代 AI 伺服器平台的功耗成長幅度驚人,從 2020 年 Ampere 架構的 10kW 到預計 2028 年 Kyber 架構的破千 kW,短短八年間飆漲了超過 100 倍。
在各家科技巨頭競逐「AI 超級運算力」的同時,也帶來了不容忽視的能源挑戰。

從圖表來看,NVIDIA 的伺服器產品線功耗一路成長:
-
Ampere(2020):10kW
-
Hopper(2022):40kW
-
Blackwell(2024):120kW
-
Blackwell Ultra(2025):150kW
-
Rubin(2026):200kW+
-
Rubin Ultra(2028):1000kW+
-
Kyber(2028):尚未公開具體數據,但預期沿用 Rubin Ultra 級別設計
這樣的增幅主要來自於幾個原因:每一代 GPU 機架中配置的卡數更多,單一 GPU 的熱設計功耗(TDP)也更高,加上新一代 NVLink/NVSwitch 架構,以及超高密度的模組化機櫃設計,都導致單機架功耗驚人增加。

一個資料中心電力,等於一整個州在用電
不只是單台機櫃耗電驚人,整體資料中心的用電也已進入「吉瓦」等級。Ray Wang 指出,像 OpenAI、Meta 等科技巨頭,預計未來幾年將各自擴充超過 10 吉瓦(GW)AI 運算電力。
這代表什麼?1 吉瓦的電力就足以供應約 100 萬戶美國家庭使用。換句話說,一個 AI 資料中心的耗電量,很可能等於美國一整個中型州的用電量!
根據國際能源署(IEA)預測,到 2030 年,AI 產業的整體能源消耗將成長兩倍,幾乎是全球電網擴建速度的四倍之多。如果沒有針對節能、散熱、再生能源等進一步優化,AI 技術的發展可能將與能源與環境問題產生嚴重衝突。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!