FB 建議貼文

選取貼文複製成功(包含文章連結)!

AI成能源黑洞?NVIDIA伺服器8年功耗激增100倍,引發用電警訊

AI成能源黑洞?NVIDIA伺服器8年功耗激增100倍,引發用電警訊

AI 演算法越來越強,但背後的電力需求也正以驚人速度飆升。根據分析師 Ray Wang 公開的資料,NVIDIA 幾代 AI 伺服器平台的功耗成長幅度驚人,從 2020 年 Ampere 架構的 10kW 到預計 2028 年 Kyber 架構的破千 kW,短短八年間飆漲了超過 100 倍

在各家科技巨頭競逐「AI 超級運算力」的同時,也帶來了不容忽視的能源挑戰。

AI成能源黑洞?NVIDIA伺服器8年功耗激增100倍,引發用電警訊

從圖表來看,NVIDIA 的伺服器產品線功耗一路成長:

  • Ampere(2020):10kW

  • Hopper(2022):40kW

  • Blackwell(2024):120kW

  • Blackwell Ultra(2025):150kW

  • Rubin(2026):200kW+

  • Rubin Ultra(2028):1000kW+

  • Kyber(2028):尚未公開具體數據,但預期沿用 Rubin Ultra 級別設計

這樣的增幅主要來自於幾個原因:每一代 GPU 機架中配置的卡數更多,單一 GPU 的熱設計功耗(TDP)也更高,加上新一代 NVLink/NVSwitch 架構,以及超高密度的模組化機櫃設計,都導致單機架功耗驚人增加。

AI成能源黑洞?NVIDIA伺服器8年功耗激增100倍,引發用電警訊

一個資料中心電力,等於一整個州在用電

不只是單台機櫃耗電驚人,整體資料中心的用電也已進入「吉瓦」等級。Ray Wang 指出,像 OpenAI、Meta 等科技巨頭,預計未來幾年將各自擴充超過 10 吉瓦(GW)AI 運算電力。

這代表什麼?1 吉瓦的電力就足以供應約 100 萬戶美國家庭使用。換句話說,一個 AI 資料中心的耗電量,很可能等於美國一整個中型州的用電量!

根據國際能源署(IEA)預測,到 2030 年,AI 產業的整體能源消耗將成長兩倍,幾乎是全球電網擴建速度的四倍之多。如果沒有針對節能、散熱、再生能源等進一步優化,AI 技術的發展可能將與能源與環境問題產生嚴重衝突。

KKJ
作者

快科技成立於1998年,是驅動之家旗下科技媒體業務,中國極具影響力的泛科技領域媒體平台之一。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則