ChatGPT 這款讓人工智慧走入大眾生活的重量級應用,雖然讓搜尋與辦公變得前所未有的便利,但背後付出的能源代價卻極為驚人。隨著 2026 年 3 月全球週活躍用戶突破 9 億大關,這家來自舊金山的獨角獸公司 OpenAI,正因旗下產品處理海量提問而面臨天文數字般的電費帳單。
根據bestbrokers調查顯示,ChatGPT 處理單次提問的耗電量,足足是傳統 Google 搜尋的 50 倍以上。隨著模型進化到 GPT-5 甚至最新的 GPT-5.4 Pro,其「思考」過程雖然變得更聰明,卻也變得更口渴,對電力的需求正以前所未有的速度飆升。
單次推理耗電驚人,一年燒掉兩百萬戶家庭用電
當我們在對話框輸入問題時,背後運作的是被稱為「推理」的複雜運算過程。根據羅德島大學 AI 實驗室的數據,目前主流的 GPT-5 模型處理一則中等長度的提問,平均耗電量約為 18.9 瓦時。相比之下,一次傳統的 Google 搜尋僅需 0.3 瓦時。
如果以 ChatGPT 每天處理約 32 億個提問來計算,該系統每天要消耗 60.7 百萬度(GWh)的電力。換算成全年總量,ChatGPT 每年消耗高達 221.5 億度電。這個數字是什麼概念?它足以供應全台灣所有家庭超過數個月的用電需求,或者說,單單這一個軟體的年耗電量,就超過了波多黎各或克羅埃西亞整個國家的年度電力需求。

昂貴的智慧代價:年電費支出突破 30 億美金
除了電力數據驚人,這背後的經濟成本也相當沉重。若以美國 2025 年底商業用電平均電價每度 0.136 美元計算,OpenAI 每年光是為了讓 ChatGPT 回答問題,就必須支付約 30.19 億美元(約新台幣 948 億元)的電費。這意味著我們每一次按下送出鍵,OpenAI 就要噴掉約 0.1 塊台幣的電費成本。
如果加上訓練模型的成本,數字將更加恐怖。當年訓練擁有 1,750 億參數的 GPT-3 時,耗費了約 128.7 萬度電;而到了 GPT-4 時代,參數規模飆升至兆級,訓練耗電量也暴增 48 倍,達到 6,231.8 萬度。至於目前的 GPT-5,由於採用的「思考鏈」推理架構更為複雜,訓練過程所需的算力與電力幾乎無法估計,據傳耗電量可能是前代產品的 8 倍之多。

訂閱收入成最強後盾,足以負擔龐大電費
雖然電費高得嚇人,但 OpenAI 的吸金能力也同樣處於天花板級別。截至 2026 年 3 月,ChatGPT 的付費訂閱用戶數已達到 5,000 萬人。根據市場推算,包含每月 20 美元的 Plus 用戶、甚至是每月高達 200 美元的 Pro 專業版用戶,OpenAI 每月光靠訂閱費就能進帳約 13 億美元。
換句話說,ChatGPT 一整年的電費開銷,OpenAI 只要花不到三個月的訂閱收入就能輕鬆打平。這也解釋了為什麼儘管電力成本極高,OpenAI 仍持續投入研發具備多模態、高精準推理能力的新模型,因為這場 AI 競賽的贏家,掌握的是未來數位世界的入口。
AI 的盡頭難道是電力?
從這份報告可以看出,AI 的競爭不只是演算法的競爭,更是能源與資本的戰爭。雖然目前 OpenAI 靠著龐大的訂閱收入支撐,但隨著影音生成功能加入,耗電量只會呈幾何級數成長。過去我們擔心的是 AI 演算法不夠準,未來我們可能要擔心,電網電力到底夠不夠這些「大腦」思考。對於投資人或使用者來說,AI 綠能與運算效率的提升,將會是下一階段觀察的重點。
- 資料來源:bestbrokers
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!