不少人使用 AI 時都遇過同樣問題:「明明講得很清楚,為什麼 AI 還是答非所問?」為了解決這類困擾,Anthropic 近期公開最新版 Claude 模型的完整提示工程指南 Prompting best practices,涵蓋包括 Claude Opus 4.6、Claude Sonnet 4.6 與 Claude Haiku 4.5 等模型。這份文件原本面向開發者,但其實裡面有許多「一般使用者也能立刻上手」的實用技巧。以下整理出幾個和大眾最相關的重點。
文章目錄
原則一:把 AI 當成「很聰明的新同事」
指南強調一個核心觀念:AI 很聰明,但它不懂你的工作習慣與背景脈絡。
如果你只說:「幫我寫一篇好一點的文章」,AI 不一定知道你所謂的「好」是什麼。
更有效的說法會是:
- 指定格式(例如:條列式、三段式、新聞報導體)
- 指定長度(例如:300 字內)
- 指定語氣(例如:專業中性、不誇張)
- 指定受眾(例如:一般大眾、學生、工程師)
Anthropic 提出的「黃金法則」是:把你的提示詞拿給一位不熟悉任務的同事看,如果他會困惑,AI 也會困惑。
原則二:直接給範例,比空講規則更有效
很多人會用長篇文字解釋自己要什麼格式,但其實給 3~5 個範例通常效果更好。與其說「請用活潑口語的科技新聞風格撰寫」,不如直接貼一段你希望模仿的範例。AI 會更準確抓到語氣、段落結構與用詞習慣。
這種方法稱為 few-shot prompting,是目前最穩定、最好用的技巧之一。
原則三:說「要做什麼」,不要只說「不要做什麼」
很多人很習慣在提示詞中加入「不要用 markdown」、「不要寫太多」、「不要太誇張」等內容,但這種負面限制,效果往往不理想。Anthropic 建議改成正向描述,比方說「請以自然流暢的段落形式撰寫」、「全文控制在 300 字內」、「語氣中性、避免誇張形容詞」等等。AI 對明確目標的反應,遠比對禁止條件更穩定。
原則四:處理長文件時,把資料放前面、問題放最後
如果你曾經把一整篇新聞稿貼給 AI,然後在最前面就提問,很可能會發現回答品質不穩。
Claude 團隊測試發現:
- 長資料放在前面
- 真正的問題放在最後
回答品質最高可提升約 30%。
此外,也建議要求 AI 先「引用相關段落」,再進行分析,能有效減少亂抓重點的情況。
原則五:新版模型更聰明,也更「主動」
在 Claude 4.6 系列中,模型預設會更主動思考、更積極使用工具。這意味著:回答更精簡、較少冗長總結、有時會直接進入行動步驟。如果你覺得它「想太多」或「太積極」,可以降低 effort(思考強度)設定,或是明確寫出「僅在必要時使用工具」。
簡單來說,新模型比較像積極型員工,需要你給它清楚的行為邊界。
原則六:想要更深度推理,可以要求「先自我檢查」
對於數學、寫程式、複雜分析等任務,可以在提示詞最後加一句:
在完成前,請根據以下標準自行檢查答案是否正確。
這個小技巧能有效降低錯誤率,特別是在技術型任務上。
一般使用者最該記住的 5 件事
如果不想研究整份技術文件,只要記住這五點:
- 指令要具體(格式、長度、語氣都講清楚)
- 給範例比講規則有效
- 用正向描述,不要只寫「不要」
- 長資料放前面,問題放最後
- 要求自我檢查可以降低錯誤
若想要參考完整指南,可點擊以下連結:https://platform.claude.com/docs/en/build-with-claude/prompt-engineering/claude-prompting-best-practices
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!