成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

NeurIPS 2024 | 解鎖大模型知識記憶編輯的新路徑,浙大用「WISE」對抗幻覺

人工智能 新聞
本文為長期模型知識編輯提供了一種新穎的解決思路,通過側記憶設計和知識分片技術,在不犧牲模型性能的情況下,實現了知識的有效更新。未來的研究可以進一步優化路由策略,提升側記憶的檢索效率;探索更好的記憶架構,以應對更加復雜的編輯場景。

本篇工作已被 NeurIPS(2024 Conference on Neural Information Processing Systems)會議接收,文章第一作者為浙江大學軟件學院碩士生王鵬,師從張寧豫副教授。

在當前人工智能的迅猛發展中,大模型的知識記憶能力成為了提升智能系統理解和推理能力的關鍵。然而,與人類記憶相比,機器記憶缺乏靈活性和可控性,難以在動態環境中實現有效的知識更新與編輯。人類的大腦擁有高度適應性的記憶機制,能夠根據外部環境變化及時進行信息的篩選、修正與增強。這種能力不僅使得我們能夠精準地獲取信息,還可以根據任務需求高效地調用相關知識。

相比之下,現有的大模型主要依賴固定的參數和數據來存儲知識,一旦訓練完成,修改和更新特定知識的代價極大,常常因知識謬誤導致模型輸出不準確或引發「幻覺」現象。因此,如何對大模型的知識記憶進行精確控制和編輯,成為當前研究的前沿熱點。

本文借鑒認知科學和人類記憶的機制,探討了大模型終身知識編輯問題,提出了一種基于雙重記憶機制的大模型知識編輯方法 WISE, 旨在持續更新大語言模型的世界知識和糾正其幻覺性輸出。此工作結合參數化長期記憶和工作記憶,在保持語言模型通用能力的同時可成功對模型進行數千次連續編輯


  • 論文標題:WISE: Rethinking the Knowledge Memory for Lifelong Model Editing of Large Language Models
  • 論文鏈接: https://arxiv.org/abs/2405.14768
  • 代碼鏈接: https://github.com/zjunlp/EasyEdit

1. 背景與挑戰

隨著大模型(LLMs)的廣泛應用,持續更新其世界知識和糾正幻覺性輸出成為一個關鍵問題。過去的方法在長期模型知識編輯中往往無法同時實現可靠性、泛化性和局部性,這被稱為「不可實現三角」(如下圖)。

圖片

圖 1 可靠性、泛化性和局部性之間的度量三角

2. 理論基礎

2.1 終生模型知識編輯定義

終生模型知識編輯問題專注于對 LLMs 進行連續的、大量的編輯操作,目的是使模型的輸出能夠與人類預期保持一致,同時保留模型先前的知識與能力 (如圖 2 所示)。具體來說,就是通過一系列時間序列上的編輯操作,逐步改進模型對特定查詢的處理能力,這些編輯操作由一個不斷變化的編輯數據集圖片來驅動 [3,16,17]。

圖片

圖 2 終生模型編輯任務示意圖

終生模型編輯的目標是實現以下三個關鍵特性:

  • 可靠性(Reliability):模型能夠在順序編輯后記住當前和之前的編輯操作。
  • 泛化能力(Generalization):模型不僅僅記住查詢-目標對,而是能夠理解并泛化到不同類型的查詢。
  • 局部性(Locality):模型編輯操作不會影響與編輯知識無關的預訓練知識。

其過程可以描述為:給定一個已經在圖片上預訓練的模型圖片, 當模型需要糾正錯誤或注入新知識時會使用一個隨時間變化的編輯數據集圖片來進行編輯操作。在第 T 個編輯步驟中,模型知識編輯器(Model Editor, ME)接收第 T 個編輯樣例和 T-1 步的的模型圖片,并產生修正后的 LLM 模型圖片。遵循以下等式:

圖片

圖片是當前編輯步驟的輸入,圖片是期望輸出;同時保留對過去編輯步驟中輸入圖片的記憶,并維持對不相關數據圖片的處理能力。

注意,使用終生模型知識編輯技術并非必須一直編輯大模型,如積累大量新數據后可通過全量微調繼續更新大模型的知識。終生模型知識編輯技術適用于小數據持續知識更新和謬誤修正

2.2 語言模型中的知識記憶

在人類認知中,工作記憶為生物大腦提供了暫時保存信息的能力,以便以適應不斷變化的環境的方式執行對話、推理和數學等任務。相似地,過去的文獻 [8, 9, 10] 表明語言模型的記憶可分為長期(情節性的)記憶和工作記憶(短期):工作記憶可能存儲在神經元的持續激活(推理時的 Activation)中,長期記憶可能存儲在模型參數(Weight)中。

我們發現更新的知識駐留在記憶中的位置會影響編輯性能,現有方法可以大致分為兩類:編輯長期記憶和編輯工作記憶。長期記憶是通過直接編輯模型參數來更新通用的參數化知識,這種方法會與之前的預訓練知識產生沖突,導致局部性較差 (例如 FT-EWC [1]、ROME [2]);而工作記憶則是在推理時通過檢索替換神經網絡的激活/表征,不修改模型參數。盡管工作記憶方法在可靠性和局部性上表現優異,但其檢索到的表征難以實現泛化,導致編輯的知識無法有效推廣(例如 GRACE [3]、SERAC [4])。這些揭示了長期記憶和工作記憶對于終身模型編輯都有缺點。

此外,盡管有一些針對 LLM 架構的特殊記憶設計,如 MemorryLLM [6] 和 Memoria [7],它們改變了模型架構(大部分 Train from scratch)且不能直接應用于不同的 LLMs。

圖片

圖 3 當前模型編輯方法的比較

這啟發我們提出一個關鍵科學問題:如何設計適配大模型的知識記憶更新機制,以打破終生知識編輯中的不可能三角

3.WISE 方法介紹

圖片

人類大腦的左右半球在不同任務中的分工給了我們靈感,這啟發我們設計了 WISE,一個具備雙參數記憶機制的框架。WISE 通過主記憶存儲預訓練知識,并引入側記憶來專門存儲編輯后的知識。側記憶可以被視為一種中期記憶,它結合了長時記憶的泛化能力和基于檢索的工作記憶的可靠性與局部性。我們僅在側記憶中進行編輯,并訓練一個路由器來決定在處理查詢時應使用哪種記憶。

為了實現連續編輯,WISE 還設計了一種知識分片機制,將不同的編輯集合存儲在獨立的、正交的子空間中,最后將這些編輯合并為統一的側記憶。主記憶存儲模型在預訓練階段學到的知識:

1. 側記憶(Wv’)作為一個副本,記錄模型在編輯后的更新信息。

圖片

2. 知識分片:將側記憶劃分成不同的隨機子空間來存儲編輯信息。具體來說,對于第 i 個編輯碎片,我們為其生成一個隨機梯度掩碼 Mi。這些掩碼確保了每次編輯都僅在側記憶的特定子空間中進行,從而實現了編輯的局部化和正交化。

圖片

3. 自適應 Gate:采用基于激活的門控策略來決定在給定查詢時使用主記憶還是側記憶。門控激活指示器的計算方式是比較側記憶和主記憶的激活差異(如下列公式所示)。我們設計了基于邊界的損失函數,確保編輯查詢的激活指標比無關查詢大,具體目標是:編輯查詢的激活值應大于無關查詢,且兩者之間的差異超過設定的閾值 γ

圖片

4. 知識合并:通過 Ties-Merge [5] 技術將各個子空間的知識合并為一致的表征,實現參數的高效利用。

4. 實驗結果

實驗結果表明,直接修改模型權重會覆蓋預訓練的知識,導致新舊知識沖突,破壞局部性,影響模型對非編輯領域的保留。

WISE 在多個任務(如問答、幻覺修正、分布外數據)上表現出色,尤其是在 LLaMA、GPT 等架構中,WISE 大幅超越現有編輯方法。通過評估可靠性、泛化性和局部性三項指標,WISE 在長期編輯中能夠有效解決模型沖突問題,并展示了優異的穩定性和擴展性。

圖片

5. 實驗分析

處理長序列持續編輯的潛力

圖片

WISE 在 3K 次編輯下表現出色,尤其是 WISE-Retrieve 通過高效的子空間組織和路由機制,能夠在較少性能下降的情況下應對大量編輯。

路由激活可視化

圖片

WISE 通過激活指標準確區分編輯查詢與非相關查詢,確保編輯的局部性,并成功將相關查詢路由到側記憶,避免干擾預訓練知識。

在 LLM 中的引入位置

圖片

應在 LLM 的中間到后期層引入側記憶。這些層被認為能夠更好地處理高級語言現象,并且通過殘差連接保持了較低層次的語義信息,使得編輯操作能夠更有效地影響模型的輸出。

WISE 的額外開銷

圖片


在編輯次數 3K 時,僅增加了 0.64% 的參數量和 4% 的 GPU 顯存需求,且推理時間開銷較小,具有較高的計算效率。

6. 總結與展望

本文為長期模型知識編輯提供了一種新穎的解決思路,通過側記憶設計和知識分片技術,在不犧牲模型性能的情況下,實現了知識的有效更新。未來的研究可以進一步優化路由策略,提升側記憶的檢索效率;探索更好的記憶架構,以應對更加復雜的編輯場景。

當前階段,針對事實和實例記憶等類型的知識編輯,通常采用以下幾種方法:外部記憶更新(如 RAG、Memory 等 [12][13])、局部參數更新(如 ROME [2]、AlphaEdit [11])或全局參數更新(如微調或對齊)。而對于更抽象的知識類型,如安全性、人格或自我認知等,還可使用運行時干預(Steering [12][13])或慢思考方法(如借助 o1 思想進行錯誤修正)

不斷提升大模型的知識處理能力,進而實現通用人工智能(AGI),是學術界與工業界的共同目標。大模型知識編輯技術的突破,不僅能夠促進大模型對新知識和新技能的快速、永久習得,還可以實現神經與符號知識之間的高效轉換與處理。此外,當大模型出現致命錯誤或安全隱患時,基于知識編輯技術可以快速定位問題根源,并實現及時的干預和控制。這種技術對確保大模型的可信與安全至關重要。

此外,大模型的知識編輯技術不僅能有效優化模型的表現,還能促進對大模型知識機理的深入研究。通過對參數進行干預與分析,研究人員可以進一步解構并理解 「電子大腦」的運作原理。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-05-26 00:43:08

2024-11-04 10:05:00

AI模型

2024-01-09 14:05:15

大型語言模型RAG向量數據庫

2025-05-28 01:50:00

2024-10-11 14:00:00

模型數據

2024-07-12 14:53:42

2024-01-02 13:19:00

AI模型

2024-01-04 16:41:29

大型語言模型自然語言處理

2024-10-10 14:10:00

AI模型

2024-11-18 11:00:00

模型安全

2024-11-11 13:24:02

2024-12-02 13:50:00

模型訓練

2024-02-20 08:17:55

2024-11-04 12:48:12

2023-11-27 14:48:34

人工智能深度學習大語言模型

2024-10-28 11:00:00

AI生成式

2023-11-18 09:30:42

模型AI

2024-06-17 14:07:41

2024-09-05 15:48:21

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91精品国产777在线观看 | 精品一区二区久久久久久久网站 | 国产精品亚洲精品日韩已方 | 国产毛片久久久久久久久春天 | 日韩国产精品一区二区三区 | 国内精品视频一区二区三区 | 91精品久久久久久久久 | 91久久久久久久久久久久久 | 视频二区| 精品久久久久久久久久久久 | 天天色av| 亚洲色图50p| 精品久久久久久久久久久久久久 | 四虎影院一区二区 | 久久久久一区二区三区 | 亚洲一区在线日韩在线深爱 | 亚洲一区中文字幕在线观看 | 我要看免费一级毛片 | 欧美国产日韩在线观看成人 | 俺去俺来也www色官网cms | 蜜桃视频在线观看免费视频网站www | 羞羞的视频免费观看 | 国产精品污www在线观看 | chinese中国真实乱对白 | 国产免费一区二区 | 中文字幕a√ | 国产在线精品免费 | 蜜臀91视频 | 久草网免费 | a免费视频| 亚洲一区二区三区在线播放 | 91中文字幕 | 国产清纯白嫩初高生在线播放视频 | 亚洲三区在线观看 | 中文字幕乱码亚洲精品一区 | 成人免费观看视频 | 九九伦理片 | 精品综合久久久 | 国产人成在线观看 | 免费午夜剧场 | 999久久久 |