Anthropic 正式宣布旗下旗艦模型 Claude Opus 4.6 與 Sonnet 4.6 的 100 萬(1M)token 上下文視窗全面開放 。最讓開發者振奮的是,這次升級採取「定價統一」策略,不再針對長上下文收取額外費用 。這意味著無論請求大小,單位 token 的費率都維持一致,為大型專案與複雜任務的處理鋪平了道路。
定價佛心:不再收長上下文溢價
根據 Anthropic 公布的新價格體系,Opus 4.6 維持每百萬 token 輸入 5 美元、輸出 25 美元(約新台幣 160 元 / 800 元);Sonnet 4.6 則為輸入 3 美元、輸出 15 美元(約新台幣 96 元 / 480 元)。
官方強調,即便發送一則高達 90 萬 token 的請求,其單位費用也與 9000 token 的短請求完全相同 。此外,所有 1M 視窗請求現在都享有與普通請求一致的速率限制,且取消了先前 200K 以上上下文所需的 beta 標記,開發者無需修改程式碼即可平滑過渡 。
多模態能力翻倍,圖片 PDF 吞吐量大增
除了文字容量,媒體處理能力也是本次升級的重頭戲 。
-
圖片與 PDF 支援量:單次請求可接收的圖片或 PDF 頁數從 100 提升至 600 。
-
應用場景廣泛:這項改進能更有效地覆蓋程式碼審查、法律文件、科研論文及運維日誌等複雜多模態場景 。
-
降低工程複雜度:開發者可以一次性置入數百頁材料,無需頻繁進行分段或壓縮,有效降低資訊損耗 。
長程記憶與推理表現優異,實測領先對手
Anthropic 強調,長上下文必須兼顧「記得住」與「用得好」才有意義 。在第三方基準測試中,Opus 4.6 與 Sonnet 4.6 展現出領先的長程記憶力:
-
Opus 4.6:在 MRCR v2 測試中取得 78.3% 的佳績 。
-
Sonnet 4.6:在 1M token 的 GraphWalks BFS 測試中得分 68.4% 。
這代表開發者能將整個程式碼倉庫或數萬頁合約直接放入單一會話,無需依賴複雜的「窗口滑動」或「多輪摘要」技術 。
開發與運維團隊的福音:減少重複消耗
在實際應用中,1M 視窗已整合進 Claude Code 產品線,並對 Max、Team 與 Enterprise 用戶預設開放 。
-
程式開發:處理大型程式碼變更時,智能體能在更少的總 token 消耗下完成任務,因為減少了切分上下文導致的重複請求 。
-
系統運維:工程師能在單一會話中保留所有告警訊號與排障假設,降低遺漏細微異常的風險 。
-
專業領域:法務人員可完整回溯多輪談判變更,科研團隊則能在單次推理中同時納入數百篇論文進行綜合分析 。
過去開發者在使用 LLM 時,往往需要花費大量精力在「如何縮減輸入長度」或「如何分段處理數據」等工程問題上。Claude 1M 上下文的全面開放且不加價,象徵著 AI 處理範式的轉移。當模型能一次處理百萬級別的資訊且維持高準確率時,企業能更專注於業務邏輯設計,而非受限於技術天花板。隨著 Amazon Bedrock、Google Cloud Vertex AI 等平台同步上線,這場「長上下文之戰」勢必會推動更多具備長效記憶的 AI 代理人應用落地。
- 延伸閱讀:兩週揪出百個漏洞!Claude AI 助攻 Mozilla,Firefox 高危險缺陷無所遁形
- 延伸閱讀:OpenAI 替美軍開發 AI 惹眾怒!ChatGPT 遭狂刪、一星負評灌爆,對手 Claude 趁機大爆紅
- 延伸閱讀:Claude 擠下 ChatGPT 奪下載冠軍,用戶不滿 OpenAI 合作戰爭部引發跳槽潮
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!