Appier的 AI 研究團隊最近發表了一篇研究論文《回答、拒絕或猜測?探究語言模型的風險感知決策》,提出一套可系統化衡量「語言模型在不同風險情境下決策策略」的評估框架,並透過創新方法顯著提升模型在高風險應用場景中的決策可靠性。
該研究聚焦於 Agentic AI 導入企業場景時的核心挑戰——如何讓 AI 的自主決策同時兼具可信度。研究成果不僅強化 Appier 在 AI 領域的技術實力,並將挹注其產品創新研發,同時也為 Agentic AI 生態系的技術演進提供重要參考。
企業面臨「不準確性」:Appier 提出「風險感知決策」框架
隨著 Agentic AI 成為企業數位轉型的重要技術,市場正逐步從「AI Copilot」階段邁向具備自主決策能力的「AI Agent」。根據 McKinsey 2025 調查,已有 62% 的企業開始實驗 AI Agent。然而,報告也指出,「不準確性」仍是企業導入 AI 時最常面臨、且亟需解決的首要風險。
作為 AI 原生的 Agentic AI 即服務(AaaS)公司,Appier 持續透過專責 AI 研究團隊,將前瞻研究轉化為可落地的企業級方法論與產品能力。本次研究即針對企業最關注的「AI 幻覺與決策可靠性」問題,提出「風險感知決策(Risk-Aware Decision-Making)」框架,將 LLM 在不同風險情境下的決策行為轉化為可量化指標,為企業導入 AI 自主運作建立更完整的治理基礎。
將「風險感知策略」轉化為可量化指標
傳統語言模型的評估方式,多以「是否答對」作為主要指標。然而在企業應用場景中,「答錯的代價」與「拒答的價值」往往截然不同。本研究在維持原有任務題目的前提下,引入「答對獎勵、答錯懲罰、拒答成本」等設定,系統化建立不同風險情境。語言模型需依據自身能力、對答案的信心程度與風險條件進行判斷,選擇「回答、拒答或猜測」,並以是否能最大化「預期報酬」作為衡量指標,以此評估其決策品質與策略合理性。
藉由「風險感知決策」評估框架,研究團隊發現,目前多數主流 LLM 在不同風險情境下普遍出現明顯「策略失衡」。例如在高風險情境下(錯誤可能造成重大商業損失),模型仍傾向過度猜測;而在低風險情境下,模型卻又過度保守,過度拒答。這種決策不穩定性,將限制 AI 在企業應用場景中的自主化與安全性。研究進一步指出,問題並非完全源自模型知識不足,而是模型不擅長將多項能力「自發性整合為穩定的決策策略」。
「技能拆解」方法,讓模型做出最適決策
為改善上述問題,研究提出「技能拆解(Skill Decomposition)」方法,將模型的決策任務拆解成三個步驟分別完成:
- 解題得到初步答案(Task Execution)
- 評估自己對該解答的信心度(Confidence Estimation)
- 依風險條件做期望值推理(Expected-Value Reasoning)
透過步驟拆解的推理架構,模型能更有效地整合多項能力,在高風險情境下做出更合理且穩定的決策,為企業級 AI 系統提供一條具體、可落地的可靠性提升路徑。
Agentic AI 關鍵在於「更可靠」,加速企業 AI 落地與商業價值轉化
Appier 執行長暨共同創辦人游直翰表示:「Agentic AI 要走進企業關鍵流程,關鍵不僅在於『更聰明』,更在於自主決策能否『更可靠』。Appier 自創立以來即以 AI 為核心打造產品,並持續投入國際級研究量能。本次研究將 LLM 的『風險感知』轉化為可量化方法論,有助於強化企業級可信任基礎,推動 Agentic AI 更快、更穩健落地企業場景,並加速把 AI 能力轉化為可規模化交付的商業價值與 ROI。」
本次研究成果亦進一步應用於 Appier Agentic AI 驅動的廣告雲、個人化雲與數據雲全產品線,協助企業以更可信任的方式推進自主化工作流程。未來,Appier 也將憑藉強大的 AI 研究團隊,以及專有數據資產、深耕垂直產業,以客戶為導向的 AI 模型,持續深化 Agentic AI 技術研發與產業應用,推動企業邁向更高效且可信任的 AI 自主時代。
- 延伸閱讀:Appier 宣布全產品導入 Agentic AI 架構,八大 AI 智慧代理人提升行銷 ROI
- 延伸閱讀:OneAD 推出 Agentic AI 平台「SuperDSP」,以 AI 廣告腦驅動品牌情感連結新時代
- 延伸閱讀:什麼是「Agentic AI」代理式AI?為什麼黃仁勳、Google、OpenAI、微軟大家都在談這個?
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!