成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

ACL2025 | 傳統符號語言傳遞知識太低效?探索LLM高效參數遷移可行性

人工智能 新聞
最近,中國科學院自動化所提出對 Parametric Knowledge Transfer (PKT,參數知識遷移) 的全面分析。

論文第一作者譚宇喬來自中國科學院自動化研究所的自然語言處理和知識工程研究組,導師為何世柱老師。目前研究方向主要在利用大語言模型參數知識增強大模型能力。

1 跨規模參數知識遷移 PKT 的全面分析

人類的思維是非透明的,沒有繼承的記憶,因此需要通過語言交流的環境來學習。人類的知識傳遞長期依賴符號語言:從文字、數學公式到編程代碼,我們通過符號系統將知識編碼、解碼。但這種方式存在天然瓶頸,比如信息冗余、效率低下等。

現如今,大語言模型(LLM)就主要模仿這一套范式來學習和傳遞知識。然而,與人腦不可知和不透明的特性不同,開源 LLM 的可訪問參數和信息流則像一個透明的大腦,直接編碼了事實知識,已有的研究對其進行了系統分析、精確定位和有效轉移。因此研究人員提出疑問:大模型能否像《阿凡達》中的人類和納威人之間建立傳遞知識的練習?其中在天然存在的較大 LLM 和較小 LLM 對之間展開,將參數知識作為媒介。

最近,中國科學院自動化所提出對 Parametric Knowledge Transfer (PKT,參數知識遷移) 的全面分析。一句話總結:跨規模大模型之間的表現相似和參數結構相似度都極低,這對實現有效的 PKT 提出了極大的挑戰。

圖片

  • 論文標題:Neural Incompatibility: The Unbridgeable Gap of Cross-Scale Parametric Knowledge Transfer in Large Language Models
  • 論文地址:https://arxiv.org/abs/2505.14436
  • Github 地址:https://github.com/Trae1ounG/Neural_Incompatibility

2 新的 Pre-Align PKT 范式:定位后對齊 LaTen

論文首先通過簡單的前置實驗,挖掘出參數空間的對齊是實現參數知識遷移的必要條件。現有的參數對齊方法 Seeking 通過梯度定位部分較大 LLM 參數以適配較小 LLM 張量形狀,將其初始化為 LoRA 矩陣通過后續微調實現遷移,稱之為后對齊參數遷移方法(Post-Align PKT)。論文為了更全面探索 PKT 是否可行,根據對齊時機提出先對齊知識遷移(Pre-Align PKT)新范式,采用定位后對齊(Locate-then-Align,LaTen)方法實現參數對齊。

圖片

圖表 1:展示了基于語言的知識遷移和基于參數的知識遷移范式的差異

該方法的核心理念是首先通過神經元級別的歸因分析,識別出與特定任務相關的參數,然后利用訓練得當的超網絡,將較大 LLM 的知識映射到較小 LLM 上。

具體而言,LaTen 方法分為兩個階段:

  1. 知識提取:通過分析大模型的參數,識別出與目標任務相關的知識。這一過程利用靜態神經元歸因方法,計算出每個神經元在任務中的重要性,從而選擇出最具信息量的參數進行遷移。
  2. 參數對齊:一旦確定了重要參數,接下來通過輕量級的超網絡進行對齊,確保這些參數能夠有效整合到小型模型中。
  3. 參數注入:這一過程強調在對齊后直接注入參數,減少了后續訓練所需的資源和時間。

通過上述流程,就可以將較大模型中的參數知識轉換為在較小模型中可受用的知識進而進行注入,以避免參數空間的差異性導致的性能丟失。

3 對齊實驗分析

在實驗部分,研究者針對多個基準數據集,涵蓋世界知識(MMLU),數學推理(GSM8K)和代碼能力(HumanEval 和 MBPP)進行了詳細評估。

圖片

圖表 2:展示 Post-Align PKT 和 Pre-Align PKT 在不同數據集上的性能表現

實驗結論:

  • 對于 Post-Align PKT,論文將其同利用 SVD 從模型自身獲取 LoRA 的 PiSSA 方法對比,結果發現 PiSSA 在相同設置下優于 Seeking,證明從較大模型抽取的參數知識不如利用模型自身知識作為 LoRA 初始化,進一步懷疑其可行性。
  • 對于 Pre-Align PKT,結果顯示,只需要極少的訓練步數和數據開銷,LaTen 能有效取得性能提升。但是 Pre-Align PKT 通過訓練實現參數對齊的方式受到極大限制,無法超越較大 LLM 的能力上界,同時訓練不太穩定,沒有明顯收斂。

此外,論文從另一個方面來驗證目前階段的 PKT 是否有效。既然假設遷移的參數知識中包含了有用的特定任務的知識,那么在特定任務上表現更好的模型,理應在遷移后能讓小模型的性能更好。因此,研究者在代碼任務上開展了這一探索實驗:

圖片

圖表 3:基于更強的較大 LLM 向較小 LLM 傳遞知識,左圖為 Post-Aligh PKT 實驗結果,右圖為 Pre-Align PKT 實驗結果

實驗結果證明了兩種 PKT 在這種設置下的失敗,讓人疑惑為什么跨規模 PKT 無法有效實現?

4 為什么跨規模 PKT 失敗?

PKT 的核心任務在于對齊(Align),不管是通過后續訓練還是提前通過超網絡實現,是否能有效實現對齊是 PKT 成功的關鍵。從現有實驗結果來看,PKT 并沒有有效實現對齊,那么阻礙的關鍵在哪?

論文從表現相似度(representation similarity)和參數相似度(parametric similarity)出發,分析跨規模大模型在行為方式和內部參數結構的相似度是否會導致跨規模 PKT 的失敗,稱為神經不兼容性(Neuron Incompatibility)。

圖片

圖表 4:跨規模大模型之間的表現相似度分析

對于表現相似度的分析,論文采用了中心核對齊(Centered Kernel Alignment, CKA)方法,該方法基于 Hilbert-Schmidt 獨立性準則(HSIC),用于計算神經網絡中特征表示的相似性。該指標評估了兩個模型之間行為的相似性,可以視為大語言模型的行為相似性。

如圖 4 所示,Llama2-7B 和 13B 之間的相似性較低,尤其是在多頭自注意力(MHSA)模塊中,該模塊在信息整合中扮演著至關重要的角色。有趣的是,上投影層的相似性較高,這可能是因為它們作為關鍵記憶,捕捉特定的輸入模式,而這些模式通常在不同模型間是一致的。跨規模大模型之間的低相似性也解釋了為何從同一模型衍生的 LoRA 表現更好,因為它與模型的內在行為更為貼合。證明跨規模大語言模型之間的表示相似性較弱是導致神經不兼容性的關鍵因素之一,這使得理想的參數知識轉移成功變得困難。

圖片

對于參數結構相似度的分析,論文進一步基于參數結構相似性進行深入分析,以了解其對性能的影響。如圖 5 所示,比較了圖片 (即第 l 層的 LoRA 參數)與 圖片 和 圖片(即 圖片)在上投影和下投影模塊中的表現。

首先,Seeking 和 PiSSA 的結果模式完全相反。在 Seeking 中,圖片 和 圖片 之間的平均相似度降至 0,表明 圖片 沒有保留任何來自 圖片 的有意義信息。這一缺陷導致了次優性能。

相比之下,PiSSA 利用奇異值分解(SVD)捕捉 LoRA 的重要參數,與原始權重保持更高的相似性,并與 圖片 建立了正交關系,從而在學習新技能時更為有效。研究表明,參數結構相似性在進一步微調中扮演著關鍵角色。具體來說,圖片 與 圖片 之間的相似度顯著影響模型適應新任務和執行參數對齊的能力。低參數相似度成為導致神經不兼容性的重要因素。在多頭自注意力模塊中同樣觀察到了相同的模式。

5 總結與展望:理想的 PKT 尚待實現

人類從牙牙學語到學貫古今,通過語言和文字在歷史長河中不斷汲取知識,通過吸收和迭代實現知識的傳承。

然而,我常幻想能實現,類似科幻小說中三體人直接通過腦電波傳遞所有知識,或利用一張鏈接床就能把人類的意識輸入到納威人體內,這是一種更理想的知識傳遞方式,而開放的大模型參數正有可能實現這一點。

通過將 PKT 根據 Align 進行劃分,我們完成了對現有階段 PKT 的全面研究,找出了實驗結果欠佳的背后是不同規模大模型之間參數知識本質上的行為和結構的差異。

但仍期望,在未來大模型之間的交流不再局限于語言這種有損的壓縮方式,而去嘗試更高效直接的遷移方法。

語言,或許是人類知識的起點,但不一定是大模型的終點。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2009-09-21 16:40:42

Hibernate可行

2022-03-11 08:31:50

API網關微服務

2012-04-12 17:41:02

2011-04-28 11:04:22

DataReader分頁

2024-03-28 00:00:00

2009-12-25 14:26:40

無線接入技術集成

2011-06-24 11:35:01

內鏈

2011-12-13 20:36:26

Android

2011-11-14 09:10:08

虛擬化

2009-02-17 15:59:55

2009-06-15 09:57:46

HibernateIBatis

2012-04-09 09:39:59

虛擬化桌面虛擬化VDI終端

2013-08-27 11:15:20

2020-09-16 09:19:49

數據中心

2011-08-17 13:07:19

無線局域網

2012-10-26 13:48:54

云計算運維云安全

2019-10-21 17:17:48

Windows操作系統微軟

2011-07-05 10:37:03

虛擬化VMware

2011-07-05 14:12:06

關鍵任務虛擬化服務器

2023-08-20 12:34:53

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 爱草在线 | 99久久精品免费看国产四区 | 激情五月综合 | 国产日韩精品视频 | 久久精品国产一区二区电影 | 久久精品欧美一区二区三区麻豆 | 欧美黄在线观看 | 国产精品不卡一区二区三区 | 99精品视频在线 | 亚洲91精品 | 午夜影院官网 | 操操操日日日 | 狠狠操天天操 | 国产原创视频 | 国产情侣激情 | 亚洲精品第一 | 超碰免费在 | av网站免费在线观看 | 91精品久久久久久久久久入口 | 夜夜草视频 | 男人天堂手机在线视频 | 中文字幕成人 | 欧美一区二区三区 | 国产在线a| 日本亚洲一区 | 蜜桃臀av一区二区三区 | 精品亚洲一区二区 | 中文字幕福利视频 | 国产日韩欧美中文字幕 | 在线看亚洲 | 日韩高清成人 | 日日操夜夜操天天操 | 一呦二呦三呦国产精品 | 国产伦精品一区二区三区高清 | 91国在线高清视频 | 黄网站在线播放 | 久久精品16 | 九九久久国产 | 黄网站在线播放 | 欧美一区二区在线观看 | 在线观看的av|