FB 建議貼文

選取貼文複製成功(包含文章連結)!

投資給OpenAI的錢都用到哪裡去了?OpenAI預估2030年算力支出將飆破1000億美元

投資給OpenAI的錢都用到哪裡去了?OpenAI預估2030年算力支出將飆破1000億美元

昨天Nvidia 宣布,計畫對 OpenAI 投資高達 1000 億美金,雙方將聯手打造規模驚人的 AI 資料中心,為下一代模型訓練與運算提供火力。而長期以來,微軟也一直都是OpenAI的「富爸爸」。那麼,再加上ChatGPT的付費會員人數不斷增加,那麼,這些錢都用到哪裡去了?

根據最新揭露的資料,OpenAI 預計在 2030 年前,每年將投入高達 1000 億美元於運算資源(Compute),大舉提升 AI 模型的訓練與推理效能。這筆開銷相當於目前的 6 倍,成為矽谷有史以來最積極的雲端算力佈局。

OpenAI 執行長 Sam Altman 也親自證實,未來幾週將推出一系列「極度仰賴算力的新產品」,甚至部分功能「連 Pro 訂閱用戶都需額外付費」,引發社群熱議。

年燒千億美元只為一件事:推進 AI 極限

根據分析師 Peter Gostev 揭露,OpenAI 目前一年花費約 160 億美元租用雲端算力,其中包括:

  • 訓練用算力:90 億美元

  • 推理用算力:70 億美元

到了 2030 年,這筆費用將一舉飆升至 1000 億美元/年,其中:

  • 訓練 Compute:500 億美元(CAGR 年均成長 41%)

  • 推理 Compute:500 億美元(CAGR 年均成長 48%)

這代表推理資源成長速度將略高於訓練,而這也符合 GPT 模型與各類 AI 產品部署後的實際商用趨勢。

投資給OpenAI的錢都用到哪裡去了?OpenAI預估2030年算力支出將飆破1000億美元

有網友戲稱:「如果一年砸下 500 億美金用來訓練 AI,那它應該會很聰明吧!」

Altman:新產品來了,但不便宜

OpenAI 執行長 Sam Altman 日前也在 X(前 Twitter)發文預告,未來將推出一些「計算密集型的新功能與產品」,考量成本壓力,部分功能將只開放給 Pro 用戶使用,甚至需要額外收費。

「我們仍希望大幅降低 AI 成本,讓服務更普及,但也想看看,當我們在現有模型成本下投入大量算力時,能激發出什麼樣的創新可能。」

這番言論也引來用戶抱怨:「又一次不尊重 Plus 用戶!」顯示用戶對價格敏感度逐漸升高。

OpenAI 算力支出總體規模超過 Meta、Google

若進一步將 OpenAI 的花費與其他科技巨頭比較,可以發現這家非典型公司在算力上的投入遠遠高於業界平均。

公司/機構 預估研發+算力支出占營收比例
OpenAI(2030預估) 約 50%
Meta(2023) 約 25%
Google/Amazon 約 10–20%
微軟 約 15.5%

其中,OpenAI 僅算力一年就燒掉 1000 億美元,這還不包含與 Oracle 等雲端合作夥伴的長約投資(例如 5 年 300 億美元的租賃契約)。

OpenAI 要當 AI 界的 SpaceX

從產品走向來看,OpenAI 顯然不只是個賣 API 的公司,而是試圖用資本硬生生「堆」出人工智慧的極限,就像 Tesla 早期燒錢做自駕車一樣。

在 AI 模型越來越龐大、推理成本不斷攀升的趨勢下,算力不只是成本,更是下一輪技術競賽的關鍵籌碼。而 Altman 看起來,也不打算退讓半步。

 

cnBeta
作者

cnBeta.COM(被網友簡稱為CB、cβ),官方自我定位「中文業界資訊站」,是一個提供IT相關新聞資訊、技術文章和評論的中文網站。其主要特色為遊客的匿名評論及線上互動,形成獨特的社群文化。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則