2023.03.04 10:00

打造ChatGPT有多燒錢?享受AI自由的同時,付出的代價是普通搜尋引擎的10倍之多

ADVERTISEMENT

本月早些時候,Google宣佈計畫推出Bard,這是一個人工智慧,聊天機器人旨在通過自然語言模型幫助使用者尋找資訊。微軟也宣佈了新的Bing搜尋,它自己的聊天機器人結合了微軟的技術和OpenAI的技術,後者是ChatGPT背後的公司。

然而,所有這些聊天機器人技術有一個重要問題,這些公司卻都沒有談及,那就是其營運成本。

根據路透社的一份新報告,就這項新技術的這一部分提供了更多資訊。它與Alphabet的主席John Hennessy閒聊時後者表示,使用具有大型語言模型的聊天機器人的運行成本可能是普通搜尋的10倍之多。

ADVERTISEMENT

早在2022年12月,就在ChatGPT推出後,OpenAI的首席執行長Sam Altman在Twitter上表示,「運算成本令人瞠目結舌」。這也是它在2月初推出ChatGPT Plus的部分原因,以每月20美元的價格提供更多的功能和更快的性能。

路透社引用了摩根史坦利的一份報告,估計如果像Bard這樣的聊天機器人人工智慧被投入使用,Google的搜尋成本在2024年可能會增加60億美元。這還是假設聊天機器人處理Google一半的搜尋量,提供包含50個單詞的答案的情況下。

當然,這些成本提高的原因是,想要AI運作順暢,就需要更多的CPU來生成所有這些來自聊天機器人AI的文字與自然聲音的答案,這也意味著保持這些伺服器工作的電力成本更高。

ADVERTISEMENT

那麼,如何才能降低成本呢?

可能發生的一件事是,這些聊天機器人將變得更有效率,從而降低營運成本,但目前還不清楚這對降低價格有多大作用。另一個解決方案是,Google和微軟可以在聊天機器人的回答中顯示廣告連結,這將產生收入,補償這些伺服器的運行成本。

後者正是ChatGPT已經在做的事情;提供訂閱服務,使用者可以獲得更快和更好的聊天機器人答案。而這,也可能是Google和微軟最後要走上的路。

ADVERTISEMENT

畢竟,過去搜尋服務是免費的,而用戶對於AI搜尋的期待也是一樣。但在隨著越來越多的使用者對於這些AI搜尋服務感到興趣,不管是微軟或是Google,都只會越來越燒錢。他們必須在損失的錢在觸到公司的財務底線之前,找到維持下去的方案。

ADVERTISEMENT