
AI 助理要好用,能不能「記住你」是一大關鍵。程式設計師 Shlok Khemani 近日發表長文,揭露 ChatGPT 記憶系統的內部架構。他認為,OpenAI 的做法看似粗暴,卻展現了典型的「苦澀教訓」:最終靠的是更強大的模型與算力,而非複雜的工程技巧。
四大模組:從裝置資訊到使用者摘要
Khemani 分析後發現,ChatGPT 的記憶主要來自四個部分:
-
互動元數據(Interaction Metadata)
記錄使用者裝置與操作習慣,例如瀏覽器、暗/亮模式、訊息長度、常用模型比例等。這些資料雖沒有明確規則,但能讓 ChatGPT 自動針對不同平台調整回答。 -
近期對話內容(Recent Conversation Content)
系統會保留大約 40 筆最新的使用者訊息(不含 AI 回覆),幫助判斷跨對話的連續性。舉例來說,若使用者前幾次都在查詢東京行程,再問「那裡三月天氣怎樣」,ChatGPT 能推斷「那裡」就是東京。 -
使用者設定記憶(Model Set Context)
由使用者主動告知的資訊,例如「我對海鮮過敏」。這些資料會優先於其他模組,成為最準確的參考來源,並可由使用者查看或刪除。 -
知識摘要記憶(User Knowledge Memories)
這是最引人注目的部分。OpenAI 會定期將使用者大量對話濃縮成摘要段落,可能涵蓋旅行習慣、專案細節、品牌偏好等。這些摘要無法被使用者直接編輯或查看,更新頻率也不明確,內容有時會混合過時或不正確的資訊。
靠強模型解決問題
多數 AI 公司會透過向量資料庫或檢索系統,來判斷哪些記憶要被調用;但 ChatGPT 走的卻是完全不同的路線——把所有記憶一次丟給模型。
Khemani 指出,OpenAI 的賭注有兩點:
-
模型足夠聰明,可以自己忽略無關資訊。
-
Context window(上下文長度)會持續增加,處理更多文字的成本也會下降。
換句話說,OpenAI 相信只要模型夠強,記憶系統就不需要「巧妙的工程設計」。這正是 AI 領域常提的「Bitter Lesson(苦澀教訓)」:長遠來看,靠算力和大模型取勝,會比小聰明更有效。
潛在疑慮:透明度與隱私
雖然這套記憶機制能提供高度個人化體驗,但也帶來爭議。
-
使用者無法全面檢視或編輯「知識摘要記憶」,透明度不足。
-
系統可能長期保存過時資訊,例如「未成行的旅行計畫」也被當成既定事實。
這些問題顯示,如何讓記憶保持準確、如何處理隱私,仍是未來的重要挑戰。
AI 記憶設計還在快速演進
Khemani 最後指出,OpenAI 已經開始推出「專案記憶」等新功能,其他公司像 Anthropic 也走出不同路線。AI 記憶的設計空間仍非常廣闊,沒有標準答案,各家只能一邊試錯、一邊看市場反應。
對使用者而言,這場「記憶之爭」的結果,將直接影響未來我們和 AI 助理互動的方式。
- 新聞來源:shloked
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!