首次全面復盤AI Agents記憶系統:3大類,6種操作!
記憶是AI系統的基本組成部分,尤其是對于基于LLMs的Agents。首次將記憶表示分為三類:參數化記憶、上下文結構化記憶和上下文非結構化記憶,并介紹了六種基本的記憶操作:鞏固、更新、索引、遺忘、檢索和壓縮。盤點了幾十種記憶框架、產品、應用!
通過將這些操作系統地映射到長期記憶、長上下文記憶、參數修改和多源記憶等最相關的研究主題中,從原子操作和表示類型的視角重新審視記憶系統,為AI中與記憶相關的研究、基準數據集和工具提供了一個結構化和動態的視角。
一、記憶的分類體系
詳細介紹了AI系統中記憶的分類體系,將記憶分為三種主要類型:參數化記憶(Parametric Memory)、上下文結構化記憶(Contextual Structured Memory)和上下文非結構化記憶(Contextual Unstructured Memory)。以下是該部分的內容總結:
1.1 參數化記憶
- 定義:參數化記憶是指模型內部參數中隱式存儲的知識。這些知識在預訓練或后訓練過程中獲得,并在推理時通過前饋計算訪問。
- 特點:
提供即時、長期且持久的記憶,能夠快速檢索事實和常識知識。
缺乏透明性,難以根據新體驗或特定任務上下文選擇性地更新。
- 應用場景:適用于需要快速訪問固定知識的場景,例如問答系統和常識推理任務。
1.2 上下文非結構化記憶
- 定義:上下文非結構化記憶是一種顯式的、模態通用的記憶系統,用于存儲和檢索跨異構輸入(如文本、圖像、音頻、視頻)的信息。
- 特點:
支持基于感知信號的推理,能夠整合多模態上下文。
根據時間范圍,進一步分為短期記憶(如當前對話會話上下文)和長期記憶(如跨會話對話記錄和個人持久知識)。
- 應用場景:適用于需要處理多模態輸入和動態上下文的任務,例如多模態對話系統和視覺問答系統。
1.3 上下文結構化記憶
- 定義:上下文結構化記憶是指以預定義的、可解釋的格式或模式(如知識圖譜、關系表、本體論)組織的顯式記憶,這些記憶可以根據請求進行查詢。
- 特點:
支持符號推理和精確查詢,通常與預訓練語言模型的關聯能力相輔相成。
可以是短期的(在推理時構建用于局部推理)或長期的(跨會話存儲策劃知識)。
- 應用場景:適用于需要精確知識檢索和推理的任務,例如知識圖譜問答和復雜事件推理任務。
二、記憶6種操作
詳細介紹了AI系統中記憶操作的分類和功能。這些操作被分為兩大類:記憶管理(Memory Management)和記憶利用(Memory Utilization)。
2.1 記憶管理
記憶管理涉及如何存儲、維護和修剪記憶,以支持記憶在與外部環境交互過程中的有效使用。記憶管理包括以下四種核心操作:
- Consolidation(鞏固):
- 定義:將短期經驗轉化為持久記憶,例如將對話歷史編碼為模型參數、知識圖譜或知識庫。
- 功能:支持持續學習、個性化、外部記憶庫構建和知識圖譜構建。
- 應用場景:在多輪對話系統中,將對話歷史整合到持久記憶中,以便在未來的對話中使用。
- Indexing(索引):
- 定義:構建輔助代碼(如實體、屬性或基于內容的表示),以便高效檢索存儲的記憶。
- 功能:支持可擴展的檢索,包括符號、神經和混合記憶系統。
- 應用場景:在大規模記憶庫中,通過索引快速定位和檢索相關信息。
- Updating(更新):
- 定義:重新激活現有記憶表示并對其進行臨時修改。
- 功能:支持持續適應,同時保持記憶一致性。例如,通過定位和編輯機制修改模型參數,或通過總結、修剪或精煉來更新上下文記憶。
- 應用場景:在對話系統中,根據用戶反饋動態更新記憶內容。
- Forgetting(遺忘):
- 定義:有選擇性地抑制可能過時、無關或有害的記憶內容。
- 功能:通過遺忘技術(如修改模型參數以擦除特定知識)或基于時間的刪除和語義過濾來丟棄不再相關的內容。
- 應用場景:在處理敏感信息時,確保隱私和安全,同時減少記憶干擾。
2.2 記憶利用
記憶利用涉及在推理過程中檢索和使用存儲的記憶,以支持下游任務(如響應生成、視覺定位或意圖預測)。記憶利用包括以下兩種操作:
- Retrieval(檢索):
- 定義:根據輸入識別并訪問相關記憶內容。
- 功能:支持從多個來源(如多模態輸入、跨會話記憶)檢索信息。
- 應用場景:在問答系統中,根據問題檢索相關的知識庫內容;在多輪對話中,檢索與當前對話相關的上下文信息。
- Compression(壓縮):
- 定義:在保持關鍵信息的同時減少記憶大小,以便在有限的上下文窗口中高效使用。
- 功能:通過預輸入壓縮(如對長上下文輸入進行評分、過濾或總結)或后檢索壓縮(如在模型推理前對檢索到的內容進行壓縮)來優化上下文使用。
- 應用場景:在處理長文本輸入時,通過壓縮減少計算負擔,同時保留關鍵信息。
三、從記憶操作到系統級主題
探討了如何將前面介紹的記憶操作(鞏固、索引、更新、遺忘、檢索、壓縮)應用于實際的系統級研究主題。這些主題涵蓋了長期記憶、長上下文記憶、參數化記憶修改和多源記憶等多個方面。
3.1 長期記憶
長期記憶是指通過與環境的交互而持久存儲的信息,支持跨會話的復雜任務和個性化交互。
- 管理(Management):
鞏固(Consolidation):將短期記憶轉化為長期記憶,例如通過對話歷史的總結或編碼。
索引(Indexing):構建記憶索引以支持高效檢索,例如通過知識圖譜或時間線索引。
更新(Updating):根據新信息更新長期記憶,例如通過對話歷史的動態編輯。
遺忘(Forgetting):有選擇性地移除過時或不相關的記憶,例如通過時間衰減或用戶反饋。
- 利用(Utilization):
檢索(Retrieval):根據當前輸入和上下文檢索相關記憶,例如通過多跳圖檢索或基于事件的檢索。
整合(Integration):將檢索到的記憶與模型上下文結合,支持連貫的推理和決策。
生成(Generation):基于整合的記憶生成響應,例如通過多跳推理或反饋引導的生成。
- 個性化(Personalization):
模型級適應(Model-Level Adaptation):通過微調或輕量級更新將用戶偏好編碼到模型參數中。
記憶級增強(Memory-Level Augmentation):在推理時從外部記憶中檢索用戶特定信息以增強個性化。
3.2 長上下文記憶
長上下文記憶涉及處理和利用大量的上下文信息,以支持長文本理解和生成。
- 參數化效率(Parametric Efficiency):
KV緩存丟棄(KV Cache Dropping):通過靜態或動態方式丟棄不必要的KV緩存,以減少內存需求。
KV緩存存儲優化(KV Cache Storing Optimization):通過量化或低秩表示壓縮KV緩存,以減少內存占用。
KV緩存選擇(KV Cache Selection):通過查詢感知的方式選擇性加載KV緩存,以加速推理。
- 上下文利用(Contextual Utilization):
上下文檢索(Context Retrieval):通過圖結構或片段級選擇方法,從大量上下文中檢索關鍵信息。
上下文壓縮(Context Compression):通過軟提示壓縮或硬提示壓縮,減少上下文長度,提高推理效率。
3.3 參數化記憶修改
參數化記憶修改涉及對模型內部參數的動態調整,以適應新的知識或任務需求。
- 編輯(Editing):
定位-編輯方法(Locating-then-Editing):通過歸因或追蹤找到存儲知識的位置,然后直接修改。
元學習(Meta Learning):通過編輯網絡預測目標權重變化,實現快速和穩健的修正。
提示方法(Prompt-based Methods):通過精心設計的提示間接引導輸出。
附加參數方法(Additional-parameter Methods):通過添加外部參數模塊調整行為,而不修改模型權重。
- 遺忘(Unlearning):
定位-遺忘方法(Locating-then-Unlearning):找到負責特定記憶的參數,然后應用目標更新或禁用。
訓練目標方法(Training Objective-based Methods):通過修改訓練損失函數或優化策略,顯式鼓勵遺忘。
- 持續學習(Continual Learning):
正則化方法(Regularization-based Methods):通過約束重要權重的更新,保留關鍵參數記憶。
重放方法(Replay-based Methods):通過重新引入過去樣本強化記憶,特別適合在訓練中整合檢索到的外部知識。
3.4 多源記憶
多源記憶涉及整合來自不同來源(如文本、知識圖譜、多模態輸入)的信息,以支持更豐富的推理和決策。
- 跨文本整合(Cross-textual Integration):
推理(Reasoning):整合多格式記憶以生成一致的響應,例如通過動態整合領域特定的參數化記憶。
沖突解決(Conflict Resolution):識別和處理來自不同記憶源的矛盾信息,例如通過信任校準和來源歸因。
- 多模態協調(Multi-modal Coordination):
融合(Fusion):對齊跨模態信息,例如通過統一語義投影或長期跨模態記憶整合。
檢索(Retrieval):跨模態檢索存儲的知識,例如通過基于嵌入的相似性計算。
https://arxiv.org/pdf/2505.00675
Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions
https://knowledge-representation.org/j.z.pan/
本文轉載自PaperAgent,作者:PaperAgent
