
昨天Nvidia 宣布,計畫對 OpenAI 投資高達 1000 億美金,雙方將聯手打造規模驚人的 AI 資料中心,為下一代模型訓練與運算提供火力。而長期以來,微軟也一直都是OpenAI的「富爸爸」。那麼,再加上ChatGPT的付費會員人數不斷增加,那麼,這些錢都用到哪裡去了?
根據最新揭露的資料,OpenAI 預計在 2030 年前,每年將投入高達 1000 億美元於運算資源(Compute),大舉提升 AI 模型的訓練與推理效能。這筆開銷相當於目前的 6 倍,成為矽谷有史以來最積極的雲端算力佈局。
OpenAI 執行長 Sam Altman 也親自證實,未來幾週將推出一系列「極度仰賴算力的新產品」,甚至部分功能「連 Pro 訂閱用戶都需額外付費」,引發社群熱議。
年燒千億美元只為一件事:推進 AI 極限
根據分析師 Peter Gostev 揭露,OpenAI 目前一年花費約 160 億美元租用雲端算力,其中包括:
-
訓練用算力:90 億美元
-
推理用算力:70 億美元
到了 2030 年,這筆費用將一舉飆升至 1000 億美元/年,其中:
-
訓練 Compute:500 億美元(CAGR 年均成長 41%)
-
推理 Compute:500 億美元(CAGR 年均成長 48%)
這代表推理資源成長速度將略高於訓練,而這也符合 GPT 模型與各類 AI 產品部署後的實際商用趨勢。
有網友戲稱:「如果一年砸下 500 億美金用來訓練 AI,那它應該會很聰明吧!」
Altman:新產品來了,但不便宜
OpenAI 執行長 Sam Altman 日前也在 X(前 Twitter)發文預告,未來將推出一些「計算密集型的新功能與產品」,考量成本壓力,部分功能將只開放給 Pro 用戶使用,甚至需要額外收費。
「我們仍希望大幅降低 AI 成本,讓服務更普及,但也想看看,當我們在現有模型成本下投入大量算力時,能激發出什麼樣的創新可能。」
這番言論也引來用戶抱怨:「又一次不尊重 Plus 用戶!」顯示用戶對價格敏感度逐漸升高。
OpenAI 算力支出總體規模超過 Meta、Google
若進一步將 OpenAI 的花費與其他科技巨頭比較,可以發現這家非典型公司在算力上的投入遠遠高於業界平均。
公司/機構 | 預估研發+算力支出占營收比例 |
---|---|
OpenAI(2030預估) | 約 50% |
Meta(2023) | 約 25% |
Google/Amazon | 約 10–20% |
微軟 | 約 15.5% |
其中,OpenAI 僅算力一年就燒掉 1000 億美元,這還不包含與 Oracle 等雲端合作夥伴的長約投資(例如 5 年 300 億美元的租賃契約)。
OpenAI 要當 AI 界的 SpaceX
從產品走向來看,OpenAI 顯然不只是個賣 API 的公司,而是試圖用資本硬生生「堆」出人工智慧的極限,就像 Tesla 早期燒錢做自駕車一樣。
在 AI 模型越來越龐大、推理成本不斷攀升的趨勢下,算力不只是成本,更是下一輪技術競賽的關鍵籌碼。而 Altman 看起來,也不打算退讓半步。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!