FB 建議貼文

選取貼文複製成功(包含文章連結)!

ChatGPT 能記住多久以前與你的對話?專家解析背後記憶系統,直言「靠算力」來懂你

ChatGPT 能記住多久以前與你的對話?專家解析背後記憶系統,直言「靠算力」來懂你

AI 助理要好用,能不能「記住你」是一大關鍵。程式設計師 Shlok Khemani 近日發表長文,揭露 ChatGPT 記憶系統的內部架構。他認為,OpenAI 的做法看似粗暴,卻展現了典型的「苦澀教訓」:最終靠的是更強大的模型與算力,而非複雜的工程技巧。

四大模組:從裝置資訊到使用者摘要

Khemani 分析後發現,ChatGPT 的記憶主要來自四個部分:

  1. 互動元數據(Interaction Metadata)
    記錄使用者裝置與操作習慣,例如瀏覽器、暗/亮模式、訊息長度、常用模型比例等。這些資料雖沒有明確規則,但能讓 ChatGPT 自動針對不同平台調整回答。

  2. 近期對話內容(Recent Conversation Content)
    系統會保留大約 40 筆最新的使用者訊息(不含 AI 回覆),幫助判斷跨對話的連續性。舉例來說,若使用者前幾次都在查詢東京行程,再問「那裡三月天氣怎樣」,ChatGPT 能推斷「那裡」就是東京。

  3. 使用者設定記憶(Model Set Context)
    由使用者主動告知的資訊,例如「我對海鮮過敏」。這些資料會優先於其他模組,成為最準確的參考來源,並可由使用者查看或刪除。

  4. 知識摘要記憶(User Knowledge Memories)
    這是最引人注目的部分。OpenAI 會定期將使用者大量對話濃縮成摘要段落,可能涵蓋旅行習慣、專案細節、品牌偏好等。這些摘要無法被使用者直接編輯或查看,更新頻率也不明確,內容有時會混合過時或不正確的資訊。

靠強模型解決問題

多數 AI 公司會透過向量資料庫或檢索系統,來判斷哪些記憶要被調用;但 ChatGPT 走的卻是完全不同的路線——把所有記憶一次丟給模型

Khemani 指出,OpenAI 的賭注有兩點:

  • 模型足夠聰明,可以自己忽略無關資訊。

  • Context window(上下文長度)會持續增加,處理更多文字的成本也會下降。

換句話說,OpenAI 相信只要模型夠強,記憶系統就不需要「巧妙的工程設計」。這正是 AI 領域常提的「Bitter Lesson(苦澀教訓)」:長遠來看,靠算力和大模型取勝,會比小聰明更有效。

潛在疑慮:透明度與隱私

雖然這套記憶機制能提供高度個人化體驗,但也帶來爭議。

  • 使用者無法全面檢視或編輯「知識摘要記憶」,透明度不足。

  • 系統可能長期保存過時資訊,例如「未成行的旅行計畫」也被當成既定事實。

這些問題顯示,如何讓記憶保持準確、如何處理隱私,仍是未來的重要挑戰。

AI 記憶設計還在快速演進

Khemani 最後指出,OpenAI 已經開始推出「專案記憶」等新功能,其他公司像 Anthropic 也走出不同路線。AI 記憶的設計空間仍非常廣闊,沒有標準答案,各家只能一邊試錯、一邊看市場反應。

對使用者而言,這場「記憶之爭」的結果,將直接影響未來我們和 AI 助理互動的方式。

 

janus
作者

PC home雜誌、T客邦產業編輯,曾為多家科技雜誌撰寫專題文章,主要負責作業系統、軟體、電商、資安、A以及大數據、IT領域的取材以及報導,以及軟體相關教學報導。

使用 Facebook 留言
發表回應
謹慎發言,尊重彼此。按此展開留言規則