AI 晶片再多也沒用,沒電就「開不了機」。微軟(Microsoft)執行長薩提亞・納德拉(Satya Nadella)近日在《BG2》Podcast節目上直言,AI 發展真正的瓶頸不是晶片或算力不足,而是電力供應與資料中心空間即將見頂,導致大量 AI 晶片只能閒置在倉庫裡。
電力、散熱雙卡關 算力反而過剩
納德拉指出,雖然輝達(NVIDIA)持續出貨高效能 GPU 晶片,但企業端卻面臨「有卡沒電用」的窘境。
「問題不在晶片,而在電。就算手上有成堆 GPU,如果沒有足夠電力和散熱系統,也只能讓它們躺在倉庫裡。」
他進一步說明,微軟目前最大的挑戰是缺乏足夠的「溫節點(warm shells)」——指具備完整供電與冷卻能力、可即時上線的伺服機架。這使得公司無法即時部署新算力,也推高資料中心建設成本。
根據報導,目前輝達的機架級 AI 系統功耗密度仍在急速上升。從 Ampere 架構到下一代 Kyber 設計,單一伺服機架的熱設計功率(TDP)預估將增加近百倍。
隨著 AI 模型規模呈指數成長,能源與冷卻需求也逼近臨界點。多位業內專家警告,「算力基礎建設」正遭遇現實的電網瓶頸。
電力成為 AI 競賽新戰場
這場「算力軍備賽」正逐漸轉變成「能源軍備賽」。包括微軟、Google、亞馬遜在內的雲端巨頭,都開始與各國電力公司合作,尋找再生能源與核融合技術等長期解方。
納德拉坦言,若電力瓶頸持續,將直接影響企業是否持續採購 AI 晶片:「需求預測變得極難,我們手上有訂單,但能否啟用,要看電力是否跟得上。」
延伸觀察:AI 時代的「電力焦慮」
AI 生成模型需要龐大算力支撐,一場 ChatGPT 對話背後的耗電量據估計可能是一般搜尋引擎的十倍。
當各家雲端巨頭投入數十億美元擴建資料中心,供電、散熱與環保壓力同步升高。美國能源部與歐洲多國近來已針對「AI 用電」啟動政策討論,未來資料中心能否取得綠能配額,恐成為科技競爭新焦點。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!