ADVERTISEMENT
當業界正積極投注大量資源開發能「思考」的 AI 模型時,一份來自非營利機構 Epoch AI 的新分析卻潑了一盆冷水。報告指出,AI推理模型(reasoning models)近年雖帶來顯著突破,但其進步速度可能在未來一年內開始放緩,甚至於 2026 年前達到成長瓶頸。
Reinforcement Learning 成關鍵,但資源成本逐漸失控
這類推理模型,如 OpenAI 的最新作 o3,近幾個月在數學與程式解題等標竿測試上表現出色,核心方法在於結合大模型訓練與「強化學習(reinforcement learning)」。這種機制能讓模型透過回饋機制「學會如何修正錯誤」,在複雜問題上逐步優化解法。
但根據 Epoch 的分析,過去許多前沿 AI 實驗室(如 OpenAI)在強化學習階段的算力投入其實還不算高,直到訓練 o3 時才明顯加大資源。OpenAI 甚至透露,o3 的訓練所用算力為前代 o1 的約 10 倍,而大部分推測是集中在強化學習階段。
ADVERTISEMENT
然而,算力再多也有極限。Epoch 認為,目前強化學習的成效雖然在 3~5 個月內可達十倍成長,但隨著基礎提升,邊際效益會遞減,加上研究成本高昂,長期而言恐難持續維持目前的成長速度。
推理模型仍有挑戰:不只貴、還會「幻覺」
負責本次分析的 Epoch 分析師 Josh You 指出,傳統大型 AI 模型(如 LLM)目前的效能每年可達四倍成長,而推理型模型則是透過強化學習階段每 3~5 個月十倍躍升,看似驚人,但這種爆發式成長恐怕只是短期現象。
「這些推理模型的進步速度,很可能在 2026 年前與整體 AI 發展進度趨於一致,換句話說——不再有爆炸性的領先優勢。」You 表示。
ADVERTISEMENT
除了運算成本外,報告也提到另一項結構性問題——推理模型在執行複雜任務時,出現「幻覺」(hallucination)的機率反而比傳統模型更高。這意味著,雖然模型表面看起來邏輯清晰,但可能產生不實或錯誤資訊,對應用可靠性造成隱憂。
目前業界對推理型模型投入甚深,除了 OpenAI 外,包括 Anthropic、Cohere 等新創也積極發展類似技術。若這類模型的可擴展性與效能極限提前出現,將可能影響整體產業投資方向與產品策略。
ADVERTISEMENT
「如果推理型 AI 的成長真的接近天花板,那下一階段的突破可能來自方法創新、而非單純堆疊算力。」You 寫道。
在各大科技公司持續投入巨額資源打造「能理解世界的 AI」之際,這份報告無疑提供了一種更冷靜的視角。真正的智慧,也許不只是更大的模型與更多的 GPU,而是如何讓 AI 更有效率、更可信地解決問題。
ADVERTISEMENT
ADVERTISEMENT