在 AI 開發者圈子裡,曾經被封為大模型通訊救星的「MCP 協議」正經歷一場生存危機。隨著 AI 搜尋引擎龍頭 Perplexity 率先表態放棄支援,這項由 Anthropic 推出的標準協議,在短短一年內就從「業界希望」變成了開發者眼中的「累贅」。
昔日救星淪為雞肋,Perplexity 執行技術長:API就夠用了
2024 年底,Anthropic 推出「模型上下文協議」(Model Context Protocol,簡稱 MCP),原本旨在解決 AI 模型與外部工具之間溝通不順的問題。然而,這項協議在歡慶一週年之際,卻迎來了最大的背叛。

Perplexity 執行技術長 Denis Yarats 近日於內部證實,公司已決定放棄 MCP,轉而回歸最傳統但高效的 API 與 CLI(命令列介面)。這項決策迅速在社群發酵,甚至連 Y Combinator 執行長 Garry Tan 也公開補刀,直言「MCP 很爛(MCP sucks)」。

不僅是 Perplexity,原本標榜深度整合 MCP 的 AI 聊天工具 Duetchat,也在最新的 v2 版本中,毫不留情地將相關功能全數移除。這股「棄坑潮」反映出開發者對於 MCP 繁雜架構的集體不耐煩。
薑是老的辣,回歸 CLI 的三大利點
為什麼這項曾被寄予厚望的標準會失寵?關鍵在於 MCP 的先天設計缺陷:它太占空間了。
在 AI 智慧體(Agent)的運作中,上下文視窗(Context Window)就像是精華地段的房地產。MCP 的模式是將工具的所有定義、參數與範例通通塞進對話中。這意味著,如果你想讓 AI 連結 10 個不同的工具,在它還沒開始幫你做事之前,就已經先燒掉數千個 Token。
對開發者來說,這是一個進退兩難的局面:若要強推 MCP,就得忍受 AI 變得遲鈍、記憶力下降;若要維持效能,就得閹割工具數量。在這種「Token 稅」的壓力下,MCP 顯得華而不實。
比起需要重新適應的 MCP,開發者們發現,存在數十年的 CLI 反而是 AI 最好的朋友。專家 Eric Holmes 指出,LLM(大型語言模型)在訓練過程中已經看過無數的 man 手冊與 GitHub 腳本,天生就是命令列高手。
回歸 CLI 主要有三大優勢: 第一,可除錯性高。當 AI 執行出錯時,工程師可以直接在終端機跑一遍同樣的指令,確認 AI 到底看到了什麼;但在 MCP 的黑盒子架構下,你只能去翻找冷冰冰的 JSON 紀錄。 第二,極強的組合能力。透過傳統的管道(Pipe)功能,AI 可以輕鬆將資料從一個工具傳給另一個工具,不需額外的開發成本。 第三,穩定性。MCP 經常面臨伺服端啟動失敗或權限管理不靈活的問題,而 CLI 則有成熟的身分驗證體系支援。
大廠的標準之爭從未停歇
事實上,這並非 AI 業界第一次出現標準之爭。OpenAI 先前推出的 Function Calling(函式呼叫)目前仍是市佔率最高的方案,而 MCP 原本想挑戰其地位。但隨著 Perplexity 等指標性公司的轉向,AI 智慧體的未來發展,或許不再是追求統一的新協議,而是如何更聰明地利用現有的軟體工程遺產。
對科技業來說,這場「MCP 棄坑潮」是一個重要的提醒:最好的科技不一定是最新、最酷的協議,而是最能節省資源、並讓人類與機器都能輕易理解的工具。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!