
OpenAI 推出的新一代 ChatGPT AI 代理工具,正悄悄改變你與 AI 的互動方式。過去,我們習慣讓 AI 回答問題、幫忙整理資料,但現在的 AI 已經可以幫你寫信、安排行程,甚至幫你查網頁、自動規劃旅行。
近幾週來,各種大型語言模型的升級和跑分已經不再流行,討論AI聊天機器人本身不再新鮮,而是把重點轉向在討論如何利用AI提升效率。其中,「AI代理」正是各家巨頭奮力爭奪的下一個山頭。
與此同時,NVIDIA創始人黃仁勳宣稱「天天都在用」的AI搜尋工具Perplexity,也早就推出幫助人們進行假日購物的AI代理;Google、OpenAI也紛紛拿出對應的產品。
這樣的「主動式 AI」,正在成為企業與個人生活的數位幫手。然而,這樣的便利也伴隨著潛在的資安風險。趨勢科技近日發佈報告,點出四大 AI 代理帶來的新型風險,其中最令人擔憂的,就是 AI 被駭客當成入侵使用者生活的「跳板」。
AI 代理整合力強,也代表破口只需一個
AI 代理可以整合你的行事曆、信箱、工作文件甚至企業內部系統,一旦某一個環節被攻擊者滲透,等同打開整個數位生活的後門。
過去,我們的數位資產通常分散在不同平台上,駭客若要存取多個系統,必須各別破解、滲透,每一層都可能遇到驗證防線。但現在,AI 代理的「一站式整合」功能,將這些原本獨立的系統與帳號集中管理,極大提升了效率,也大幅壓縮了攻擊者所需突破的障礙。
這樣的架構代表只要 AI 本身遭受滲透或操控,攻擊者便能橫向滲透使用者所有已授權的系統。舉例來說,AI 若被誤導進入一個嵌有提示詞注入攻擊的網站,它可能會自動讀取錯誤資訊並回傳給企業內部應用,造成錯誤決策;又或是 AI 自主執行刪除、傳送或下單操作,影響將遠超出單一應用的範圍。
更令人擔憂的是,這些整合往往是在使用者毫無意識下持續進行。AI 代理能即時存取並處理資訊,但使用者未必得知 AI 目前正在對哪些帳號或平台執行哪些任務,導致風險偵測困難。當所有資訊出入口集中於 AI 身上,它也自然成為駭客眼中最具價值、且風險擴散效應最強的破口。例如,攻擊者可能透過提示詞注入(Prompt Injection)的手法,在你不知情的情況下讓 AI 代理執行某些指令,例如寄出敏感資料、修改設定,甚至誤導你做出錯誤決策。這些風險在新型 AI 工具日益被信任的情況下,顯得更加難以察覺。AI 作為代表使用者行動的系統,具備高度的影響力,一旦被操控,所造成的損害範圍遠大於傳統的電腦病毒或釣魚郵件攻擊。
此外,新的 AI 代理可在極少人為監督下運作,這也代表了資訊安全責任從使用者手中轉移到了 AI 工具本身。然而,目前市面上的 AI 並未具備完善的風險預測或風控能力,使得許多行為仍需仰賴企業自身的防護設計與流程。
趨勢科技建議企業與使用者提高警覺
趨勢科技在報告中提出幾點建議,協助企業因應 AI 代理帶來的風險:
-
嚴格限制 AI 存取各項帳號的權限
-
避免將 AI 完全自動化於高風險流程中
-
加入人類監控環節,定期檢查任務執行情況
-
教育內部員工了解 AI 自主性與潛在風險
對一般使用者來說,理解 AI 工具的「邊界」至關重要。比方說,別讓 AI 存取銀行帳號、健康資訊、私密聯絡人等高敏感資料;若非必要,也不應讓 AI 擁有可下單、可刪除或可轉寄的權限。企業則應更進一步設計 AI 存取流程,區分各種角色權限,並採用異常行為監控系統來預防問題。
最終,AI 工具的普及無可避免,但「信任不能無條件」,這才是邁入自主 AI 時代的基本資安準則。
- 延伸閱讀:Google推出Agent2Agent協定,跨平台連接AI代理程式
- 延伸閱讀:OpenAI推出AI代理Operator:讓AI化身網路助手,代您完成繁瑣網路任務
- 延伸閱讀:科技巨頭競相推出的AI代理 (AI Agents) 是什麼,與現在的AI聊天機器人有何不同?
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!