誰說科技研發是工程師的專利?好萊塢影星蜜拉·喬娃維琪最近與開發者 Ben Sigman 合作,推出了一款名為 MemPalace 的開源 AI 記憶系統項目。與目前市面上動輒需要大量算力、狂跑模型 API 的記憶方案不同,MemPalace 走的是一條既復古又高效的道路,主打本地執行、零成本且具備高度精確性。
AI 助理為什麼總是忘東忘西?
目前大語言模型(LLM)最大的痛點之一就是「無狀態」(Stateless)。簡單來說,每當你開啟新的對話,AI 就會像《我的失憶女友》一樣,忘記你是誰、昨天聊過什麼。雖然現在許多模型號稱有超大的「脈絡視窗」(Context Window),但這就像是把所有資料硬塞進大腦,不僅昂貴(消耗大量 Token),還會分散 AI 的注意力,導致邏輯判斷力下降。
傳統 RAG 的瓶頸:資料太多、重點太少
目前主流的解決方案是 RAG(檢索增強生成),把資料丟進資料庫,需要時再撈出來給 AI 看。但傳統 RAG 有幾個缺點:
-
不分輕重: 所有檔案地位平等,AI 分不清哪些是「核心原則」,哪些是「廢話」。
-
沒有時間觀: 半年前的舊資訊和昨天的更新長得一模一樣,容易產生資訊過時的錯誤。
-
預算殺手: 每次檢索都要跑複雜的向量運算,對本地硬體或雲端 API 都是負擔。

復刻古希臘智慧:用「記憶宮殿」重新組織資料
MemPalace 的核心觀念來自古希臘的「記憶宮殿」(Method of Loci)。它不像傳統做法把資料平鋪在資料庫裡,而是模仿人類大腦,將資訊放進虛擬的「建築」中:
-
翼(Wing): 頂層分類,如「某個專案」或「某個客戶」。
-
房間(Room): 專案下的細分主題,如「程式碼架構」或「會議決策」。
-
大廳與抽屜(Hall & Drawer): 儲存具體的原始事實。
這種階層式的組織結構,讓 MemPalace 在測試基準中達到了 96.6% 的驚人召回率。相較於扁平化的向量搜索,這種架構讓檢索品質提升了 34%(從約 60.9% 提升至 94.8%)。

四層記憶系統:極致節省 Token 預算
MemPalace 最聰明的地方在於它如何管理 AI 的記憶預算。它將記憶分為四個等級:
-
L0(身份層): 助理的性格設定,始終載入。
-
L1(核心故事層): 從資料庫篩選出 15 條最重要的記憶摘要,僅約 600-900 個 Token。
-
L2(隨選層): 當聊到特定話題時,才去對應的「房間」撈資料。
-
L3(深度搜索): 最後的手段,才動用傳統的向量搜索。
根據分析,這種做法比「每次都把所有記憶餵給 AI 摘要」的做法,成本整整節省了 250 倍。

AAAK 壓縮技術:讓 AI 讀「火星文」也能通
為了進一步節省空間,項目開發了一種名為 AAAK 的壓縮格式。它會去掉英文助詞、將名字縮寫化(例如 Alice 變 ALC),並把情緒標籤化。這種格式對人類來說可能像火星文,但對 LLM 來說,卻是能直接理解且體積縮小 30 倍的高效語言。
MemPalace 的出現給了 AI 界一個很好的啟示:當大家都在追求更強的算力、更大的參數時,透過優雅的軟體架構與古老的邏輯,反而能達成更好的效果。整個項目只依賴 ChromaDB 與 PyYAML 兩個套件,不需要聯網、不需要 API Key,就能讓你的本地 AI 助理擁有過目不忘的本領。或許未來,我們真正需要的不是一個「吃電怪獸」般的 AI,而是一個像 MemPalace 這樣,懂得把知識整齊收納在宮殿裡的聰明管家。
- 延伸閱讀:微軟 AI Summit Taipei 盛大登場:AI Agent、Copilot 引領企業邁向人機協作新紀元
- 延伸閱讀:ChatGPT Agent 使用教學:資料蒐集、簡報製作、訂票點餐全包辦
- 延伸閱讀:ChatGPT Atlas 瀏覽器登場:Agent 模式助你規劃行程、整理資料,隱私安全限制一次看
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!