近期有網友在 X(原 Twitter)分享在 OpenClaw AI 機器人配置 GPT-5.4 的心得,並比較其與輕量版模型 Claude Haiku 4.5 的速度差異 。這則貼文意外釣出 OpenClaw 創始人 @Steipete 親自回應,提醒使用者:切勿使用規模較小或防護較弱的模型處理高風險任務 。
指令注入防護弱,小模型安全風險高
@Steipete 指出,小模型在面對「指令注入」(Prompt Injection)攻擊時,安全防護通常較不完善 。指令注入是目前所有 AI 模型都難以徹底解決的痛點,攻擊者可能將惡意指令偽裝在網頁、郵件或文件中 。
例如,攻擊者可能在網頁開頭加入人類不可見的指令,要求 AI 忽略原本的系統設定,改將查詢到的敏感資訊傳送到特定伺服器 。雖然多數模型會因安全設定而忽略這些惡意提示,但小模型或舊模型仍有較高機率違規執行,導致使用者的敏感資料外洩 。
權限越高風險越大,官方建議三招防禦
OpenClaw 官方文件也針對此問題提出了明確建議,強調在使用具備讀寫、執行或聯網能力的「工具型代理(Agent)」時,使用者必須更加謹慎 :
-
優先選擇強大模型:在高風險場景(如自動化任務)中,應優先使用最新、指令對齊(Alignment)能力更強的大型模型,以提升安全性 。
-
收緊權限邊界:不要寄望於系統提示詞(System Prompt)能讓 AI 乖乖聽話。使用者應針對機器人設定「最小權限」,並採用對話隔離與來源過濾等措施 。
-
分場景選用模型:若是日常問答、潤色文案等不含敏感資訊的任務,可以使用速度快且便宜的小模型或舊模型;但涉及工具調用時,絕對要換成防護力最強的旗艦模型 。
隨著 OpenClaw 等智慧代理工具賦予 AI 更多執行權力,使用者的資安觀念也得跟上。小模型雖然在速度與成本上有優勢,但在安全防護上往往是「一分錢一分貨」。當你賦予 AI 讀取郵件或連上公司的權限時,千萬別為了省那點 Token 費用而讓自己的數位資產身陷險境。
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!