FB 建議貼文

選取貼文複製成功(包含文章連結)!

Claude 1M 超長上下文全面開放!無溢價定價與多模態升級,大型專案處理更省心

Claude 1M 超長上下文全面開放!無溢價定價與多模態升級,大型專案處理更省心

Anthropic 正式宣布旗下旗艦模型 Claude Opus 4.6 與 Sonnet 4.6 的 100 萬(1M)token 上下文視窗全面開放 。最讓開發者振奮的是,這次升級採取「定價統一」策略,不再針對長上下文收取額外費用 。這意味著無論請求大小,單位 token 的費率都維持一致,為大型專案與複雜任務的處理鋪平了道路。

定價佛心:不再收長上下文溢價

根據 Anthropic 公布的新價格體系,Opus 4.6 維持每百萬 token 輸入 5 美元、輸出 25 美元(約新台幣 160 元 / 800 元);Sonnet 4.6 則為輸入 3 美元、輸出 15 美元(約新台幣 96 元 / 480 元)

官方強調,即便發送一則高達 90 萬 token 的請求,其單位費用也與 9000 token 的短請求完全相同 。此外,所有 1M 視窗請求現在都享有與普通請求一致的速率限制,且取消了先前 200K 以上上下文所需的 beta 標記,開發者無需修改程式碼即可平滑過渡

多模態能力翻倍,圖片 PDF 吞吐量大增

除了文字容量,媒體處理能力也是本次升級的重頭戲

  • 圖片與 PDF 支援量:單次請求可接收的圖片或 PDF 頁數從 100 提升至 600

  • 應用場景廣泛:這項改進能更有效地覆蓋程式碼審查、法律文件、科研論文及運維日誌等複雜多模態場景

  • 降低工程複雜度:開發者可以一次性置入數百頁材料,無需頻繁進行分段或壓縮,有效降低資訊損耗

長程記憶與推理表現優異,實測領先對手

Anthropic 強調,長上下文必須兼顧「記得住」與「用得好」才有意義 。在第三方基準測試中,Opus 4.6 與 Sonnet 4.6 展現出領先的長程記憶力:

  • Opus 4.6:在 MRCR v2 測試中取得 78.3% 的佳績

  • Sonnet 4.6:在 1M token 的 GraphWalks BFS 測試中得分 68.4%

這代表開發者能將整個程式碼倉庫或數萬頁合約直接放入單一會話,無需依賴複雜的「窗口滑動」或「多輪摘要」技術

開發與運維團隊的福音:減少重複消耗

在實際應用中,1M 視窗已整合進 Claude Code 產品線,並對 Max、Team 與 Enterprise 用戶預設開放

  • 程式開發:處理大型程式碼變更時,智能體能在更少的總 token 消耗下完成任務,因為減少了切分上下文導致的重複請求

  • 系統運維:工程師能在單一會話中保留所有告警訊號與排障假設,降低遺漏細微異常的風險

  • 專業領域:法務人員可完整回溯多輪談判變更,科研團隊則能在單次推理中同時納入數百篇論文進行綜合分析

過去開發者在使用 LLM 時,往往需要花費大量精力在「如何縮減輸入長度」或「如何分段處理數據」等工程問題上。Claude 1M 上下文的全面開放且不加價,象徵著 AI 處理範式的轉移。當模型能一次處理百萬級別的資訊且維持高準確率時,企業能更專注於業務邏輯設計,而非受限於技術天花板。隨著 Amazon Bedrock、Google Cloud Vertex AI 等平台同步上線,這場「長上下文之戰」勢必會推動更多具備長效記憶的 AI 代理人應用落地。

 

 

NetEase
作者

網易科技,有態度的科技門戶!關注微信公眾號(tech_163),看有態度的深度內容。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則