FB 建議貼文

選取貼文複製成功(包含文章連結)!

Appier 發表「風險感知決策」框架,助企業實現可信任 AI 自主運作

Appier 發表「風險感知決策」框架,助企業實現可信任 AI 自主運作

Appier的 AI 研究團隊最近發表了一篇研究論文《回答、拒絕或猜測?探究語言模型的風險感知決策》,提出一套可系統化衡量「語言模型在不同風險情境下決策策略」的評估框架,並透過創新方法顯著提升模型在高風險應用場景中的決策可靠性。

該研究聚焦於 Agentic AI 導入企業場景時的核心挑戰——如何讓 AI 的自主決策同時兼具可信度。研究成果不僅強化 Appier 在 AI 領域的技術實力,並將挹注其產品創新研發,同時也為 Agentic AI 生態系的技術演進提供重要參考。

企業面臨「不準確性」:Appier 提出「風險感知決策」框架

隨著 Agentic AI 成為企業數位轉型的重要技術,市場正逐步從「AI Copilot」階段邁向具備自主決策能力的「AI Agent」。根據 McKinsey 2025 調查,已有 62% 的企業開始實驗 AI Agent。然而,報告也指出,「不準確性」仍是企業導入 AI 時最常面臨、且亟需解決的首要風險。

作為 AI 原生的 Agentic AI 即服務(AaaS)公司,Appier 持續透過專責 AI 研究團隊,將前瞻研究轉化為可落地的企業級方法論與產品能力。本次研究即針對企業最關注的「AI 幻覺與決策可靠性」問題,提出「風險感知決策(Risk-Aware Decision-Making)」框架,將 LLM 在不同風險情境下的決策行為轉化為可量化指標,為企業導入 AI 自主運作建立更完整的治理基礎。

將「風險感知策略」轉化為可量化指標

傳統語言模型的評估方式,多以「是否答對」作為主要指標。然而在企業應用場景中,「答錯的代價」與「拒答的價值」往往截然不同。本研究在維持原有任務題目的前提下,引入「答對獎勵、答錯懲罰、拒答成本」等設定,系統化建立不同風險情境。語言模型需依據自身能力、對答案的信心程度與風險條件進行判斷,選擇「回答、拒答或猜測」,並以是否能最大化「預期報酬」作為衡量指標,以此評估其決策品質與策略合理性。

藉由「風險感知決策」評估框架,研究團隊發現,目前多數主流 LLM 在不同風險情境下普遍出現明顯「策略失衡」。例如在高風險情境下(錯誤可能造成重大商業損失),模型仍傾向過度猜測;而在低風險情境下,模型卻又過度保守,過度拒答。這種決策不穩定性,將限制 AI 在企業應用場景中的自主化與安全性。研究進一步指出,問題並非完全源自模型知識不足,而是模型不擅長將多項能力「自發性整合為穩定的決策策略」。

「技能拆解」方法,讓模型做出最適決策

為改善上述問題,研究提出「技能拆解(Skill Decomposition)」方法,將模型的決策任務拆解成三個步驟分別完成:

  • 解題得到初步答案(Task Execution)
  • 評估自己對該解答的信心度(Confidence Estimation)
  • 依風險條件做期望值推理(Expected-Value Reasoning)

透過步驟拆解的推理架構,模型能更有效地整合多項能力,在高風險情境下做出更合理且穩定的決策,為企業級 AI 系統提供一條具體、可落地的可靠性提升路徑。

Agentic AI 關鍵在於「更可靠」,加速企業 AI 落地與商業價值轉化

Appier 執行長暨共同創辦人游直翰表示:「Agentic AI 要走進企業關鍵流程,關鍵不僅在於『更聰明』,更在於自主決策能否『更可靠』。Appier 自創立以來即以 AI 為核心打造產品,並持續投入國際級研究量能。本次研究將 LLM 的『風險感知』轉化為可量化方法論,有助於強化企業級可信任基礎,推動 Agentic AI 更快、更穩健落地企業場景,並加速把 AI 能力轉化為可規模化交付的商業價值與 ROI。」

本次研究成果亦進一步應用於 Appier Agentic AI 驅動的廣告雲、個人化雲與數據雲全產品線,協助企業以更可信任的方式推進自主化工作流程。未來,Appier 也將憑藉強大的 AI 研究團隊,以及專有數據資產、深耕垂直產業,以客戶為導向的 AI 模型,持續深化 Agentic AI 技術研發與產業應用,推動企業邁向更高效且可信任的 AI 自主時代。

 

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則