成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

首次全面復盤AI Agents記憶系統:3大類,6種操作!

發布于 2025-5-19 01:20
瀏覽
0收藏

記憶是AI系統的基本組成部分,尤其是對于基于LLMs的Agents。首次將記憶表示分為三類:參數化記憶、上下文結構化記憶和上下文非結構化記憶,并介紹了六種基本的記憶操作:鞏固、更新、索引、遺忘、檢索和壓縮。盤點了幾十種記憶框架、產品、應用!

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

通過將這些操作系統地映射到長期記憶、長上下文記憶、參數修改和多源記憶等最相關的研究主題中,從原子操作和表示類型的視角重新審視記憶系統,為AI中與記憶相關的研究、基準數據集和工具提供了一個結構化和動態的視角。

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

一、記憶的分類體系

詳細介紹了AI系統中記憶的分類體系,將記憶分為三種主要類型:參數化記憶(Parametric Memory)、上下文結構化記憶(Contextual Structured Memory)和上下文非結構化記憶(Contextual Unstructured Memory)。以下是該部分的內容總結:

1.1 參數化記憶

  • 定義:參數化記憶是指模型內部參數中隱式存儲的知識。這些知識在預訓練或后訓練過程中獲得,并在推理時通過前饋計算訪問。
  • 特點

提供即時、長期且持久的記憶,能夠快速檢索事實和常識知識。

缺乏透明性,難以根據新體驗或特定任務上下文選擇性地更新。

  • 應用場景:適用于需要快速訪問固定知識的場景,例如問答系統和常識推理任務。

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

1.2 上下文非結構化記憶

  • 定義:上下文非結構化記憶是一種顯式的、模態通用的記憶系統,用于存儲和檢索跨異構輸入(如文本、圖像、音頻、視頻)的信息。
  • 特點

支持基于感知信號的推理,能夠整合多模態上下文。

根據時間范圍,進一步分為短期記憶(如當前對話會話上下文)和長期記憶(如跨會話對話記錄和個人持久知識)。

  • 應用場景:適用于需要處理多模態輸入和動態上下文的任務,例如多模態對話系統和視覺問答系統。

1.3 上下文結構化記憶

  • 定義:上下文結構化記憶是指以預定義的、可解釋的格式或模式(如知識圖譜、關系表、本體論)組織的顯式記憶,這些記憶可以根據請求進行查詢。
  • 特點

支持符號推理和精確查詢,通常與預訓練語言模型的關聯能力相輔相成。

可以是短期的(在推理時構建用于局部推理)或長期的(跨會話存儲策劃知識)。

  • 應用場景:適用于需要精確知識檢索和推理的任務,例如知識圖譜問答和復雜事件推理任務。

二、記憶6種操作

詳細介紹了AI系統中記憶操作的分類和功能。這些操作被分為兩大類:記憶管理(Memory Management)和記憶利用(Memory Utilization)。

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

2.1 記憶管理

記憶管理涉及如何存儲、維護和修剪記憶,以支持記憶在與外部環境交互過程中的有效使用。記憶管理包括以下四種核心操作:

  1. Consolidation(鞏固)
  • 定義:將短期經驗轉化為持久記憶,例如將對話歷史編碼為模型參數、知識圖譜或知識庫。
  • 功能:支持持續學習、個性化、外部記憶庫構建和知識圖譜構建。
  • 應用場景:在多輪對話系統中,將對話歷史整合到持久記憶中,以便在未來的對話中使用。
  1. Indexing(索引)
  • 定義:構建輔助代碼(如實體、屬性或基于內容的表示),以便高效檢索存儲的記憶。
  • 功能:支持可擴展的檢索,包括符號、神經和混合記憶系統。
  • 應用場景:在大規模記憶庫中,通過索引快速定位和檢索相關信息。
  1. Updating(更新)
  • 定義:重新激活現有記憶表示并對其進行臨時修改。
  • 功能:支持持續適應,同時保持記憶一致性。例如,通過定位和編輯機制修改模型參數,或通過總結、修剪或精煉來更新上下文記憶。
  • 應用場景:在對話系統中,根據用戶反饋動態更新記憶內容。
  1. Forgetting(遺忘)
  • 定義:有選擇性地抑制可能過時、無關或有害的記憶內容。
  • 功能:通過遺忘技術(如修改模型參數以擦除特定知識)或基于時間的刪除和語義過濾來丟棄不再相關的內容。
  • 應用場景:在處理敏感信息時,確保隱私和安全,同時減少記憶干擾。

2.2 記憶利用

記憶利用涉及在推理過程中檢索和使用存儲的記憶,以支持下游任務(如響應生成、視覺定位或意圖預測)。記憶利用包括以下兩種操作:

  1. Retrieval(檢索)
  • 定義:根據輸入識別并訪問相關記憶內容。
  • 功能:支持從多個來源(如多模態輸入、跨會話記憶)檢索信息。
  • 應用場景:在問答系統中,根據問題檢索相關的知識庫內容;在多輪對話中,檢索與當前對話相關的上下文信息。
  1. Compression(壓縮)
  • 定義:在保持關鍵信息的同時減少記憶大小,以便在有限的上下文窗口中高效使用。
  • 功能:通過預輸入壓縮(如對長上下文輸入進行評分、過濾或總結)或后檢索壓縮(如在模型推理前對檢索到的內容進行壓縮)來優化上下文使用。
  • 應用場景:在處理長文本輸入時,通過壓縮減少計算負擔,同時保留關鍵信息。

三、從記憶操作到系統級主題

探討了如何將前面介紹的記憶操作(鞏固、索引、更新、遺忘、檢索、壓縮)應用于實際的系統級研究主題。這些主題涵蓋了長期記憶、長上下文記憶、參數化記憶修改和多源記憶等多個方面。

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

3.1 長期記憶

長期記憶是指通過與環境的交互而持久存儲的信息,支持跨會話的復雜任務和個性化交互。

  • 管理(Management)

鞏固(Consolidation):將短期記憶轉化為長期記憶,例如通過對話歷史的總結或編碼。

索引(Indexing):構建記憶索引以支持高效檢索,例如通過知識圖譜或時間線索引。

更新(Updating):根據新信息更新長期記憶,例如通過對話歷史的動態編輯。

遺忘(Forgetting):有選擇性地移除過時或不相關的記憶,例如通過時間衰減或用戶反饋。

  • 利用(Utilization)

檢索(Retrieval):根據當前輸入和上下文檢索相關記憶,例如通過多跳圖檢索或基于事件的檢索。

整合(Integration):將檢索到的記憶與模型上下文結合,支持連貫的推理和決策。

生成(Generation):基于整合的記憶生成響應,例如通過多跳推理或反饋引導的生成。

  • 個性化(Personalization)

模型級適應(Model-Level Adaptation):通過微調或輕量級更新將用戶偏好編碼到模型參數中。

記憶級增強(Memory-Level Augmentation):在推理時從外部記憶中檢索用戶特定信息以增強個性化。

3.2 長上下文記憶

長上下文記憶涉及處理和利用大量的上下文信息,以支持長文本理解和生成。

  • 參數化效率(Parametric Efficiency)

KV緩存丟棄(KV Cache Dropping):通過靜態或動態方式丟棄不必要的KV緩存,以減少內存需求。

KV緩存存儲優化(KV Cache Storing Optimization):通過量化或低秩表示壓縮KV緩存,以減少內存占用。

KV緩存選擇(KV Cache Selection):通過查詢感知的方式選擇性加載KV緩存,以加速推理。

  • 上下文利用(Contextual Utilization)

上下文檢索(Context Retrieval):通過圖結構或片段級選擇方法,從大量上下文中檢索關鍵信息。

上下文壓縮(Context Compression):通過軟提示壓縮或硬提示壓縮,減少上下文長度,提高推理效率。

3.3 參數化記憶修改

參數化記憶修改涉及對模型內部參數的動態調整,以適應新的知識或任務需求。

  • 編輯(Editing)

定位-編輯方法(Locating-then-Editing):通過歸因或追蹤找到存儲知識的位置,然后直接修改。

元學習(Meta Learning):通過編輯網絡預測目標權重變化,實現快速和穩健的修正。

提示方法(Prompt-based Methods):通過精心設計的提示間接引導輸出。

附加參數方法(Additional-parameter Methods):通過添加外部參數模塊調整行為,而不修改模型權重。

  • 遺忘(Unlearning)

定位-遺忘方法(Locating-then-Unlearning):找到負責特定記憶的參數,然后應用目標更新或禁用。

訓練目標方法(Training Objective-based Methods):通過修改訓練損失函數或優化策略,顯式鼓勵遺忘。

  • 持續學習(Continual Learning)

正則化方法(Regularization-based Methods):通過約束重要權重的更新,保留關鍵參數記憶。

重放方法(Replay-based Methods):通過重新引入過去樣本強化記憶,特別適合在訓練中整合檢索到的外部知識。

3.4  多源記憶

多源記憶涉及整合來自不同來源(如文本、知識圖譜、多模態輸入)的信息,以支持更豐富的推理和決策。

  • 跨文本整合(Cross-textual Integration)

推理(Reasoning):整合多格式記憶以生成一致的響應,例如通過動態整合領域特定的參數化記憶。

沖突解決(Conflict Resolution):識別和處理來自不同記憶源的矛盾信息,例如通過信任校準和來源歸因。

  • 多模態協調(Multi-modal Coordination)

融合(Fusion):對齊跨模態信息,例如通過統一語義投影或長期跨模態記憶整合。

檢索(Retrieval):跨模態檢索存儲的知識,例如通過基于嵌入的相似性計算。

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

首次全面復盤AI Agents記憶系統:3大類,6種操作!-AI.x社區

https://arxiv.org/pdf/2505.00675
Rethinking Memory in AI: Taxonomy, Operations, Topics, and Future Directions
https://knowledge-representation.org/j.z.pan/

本文轉載自PaperAgent,作者:PaperAgent

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 成人h片在线观看 | 亚洲一区二区在线视频 | 亚洲国产视频一区 | 欧美精品在线观看 | 国产精品日韩在线观看一区二区 | 精品美女视频在免费观看 | 国产乱码精品1区2区3区 | 在线看无码的免费网站 | 午夜影院| 嫩草研究影院 | 亚洲欧美激情精品一区二区 | 成人福利影院 | 精品中文字幕视频 | 青青草中文字幕 | 天天色天天色 | 亚洲成人一区二区三区 | 干一干操一操 | 精品日韩欧美一区二区 | 韩国理论电影在线 | 久久久一区二区三区 | 欧美国产精品 | 一区二区三区视频在线 | 日本视频在线播放 | 夜夜草| 国产色播av在线 | 久久久久综合 | 免费三级网站 | 日韩不卡一区二区 | 日韩成人免费在线视频 | 黄色毛片免费视频 | 欧美久久一区二区三区 | av在线影院 | 精品国产乱码久久久久久蜜臀 | 一区免费视频 | 日韩男人天堂 | 日韩欧美精品一区 | 视频在线一区二区 | 一区二区三区视频免费观看 | 成人在线免费网站 | 日韩av高清| 中文字幕视频在线免费 |