成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

稀疏注意力再添一員,華為諾亞推出高效選擇注意力架構ESA

人工智能 新聞
ESA 通過對 query 和 key 的低維壓縮,有效減少了 token 選擇的計算復雜度。

當 DeepSeek 的 NSA 與月之暗面的 MoBA 以稀疏注意力掀起長序列技術熱潮,行業對 “效率革命” 的追逐迎來關鍵一躍 —— 華為諾亞方舟實驗室正式發布全新 ESA 算法(Efficient Selective Attention)。

論文地址:https://arxiv.org/pdf/2502.14477

通過稀疏化注意力的創新設計,ESA 突破了大模型在長文本處理中的瓶頸。ESA 不僅實現了數倍序列長度的拓展,還引入獨創的動態計算范式,結合鄰域影響力有效避免了單純選擇 top-ranked token 所帶來的性能損失。通過對關鍵 token 的精確選擇,ESA 在優化長序列處理效率的同時,提升了計算性能,為大模型在長序列任務中的應用帶來了新的可能性。

在大語言模型的推理過程中,長序列模型的訓練需要極高的算力和海量數據支持,理想的解決方案是通過短序列的訓練成果外推到長序列。然而,隨著序列長度的增加,注意力計算的復雜度呈平方級增長,這使得高效且準確的長序列推理成為了一大挑戰。為此,研究人員提出了多種方法,以應對這一挑戰。

ESA 方案正是在這一背景下提出的創新外推解決方案。ESA 通過對 query 和 key 的低維壓縮,有效減少了 token 選擇的計算復雜度。該方案通過靈活高效地選擇關鍵 token 進行注意力計算,大幅度降低了 LLMs 在處理長文本時的計算負擔,且在性能上與全注意力外推方法相當,甚至在高倍外推場景下優于全注意力算法,實現了上下文長度的有效擴展。

1. 高效外推

當大模型訓練長度有限,隨著序列長度的增長,一方面會出現 OOD (out-of-distribution) 的問題,另一方面注意力計算量會迅速增大。現有的研究表明,注意力矩陣具有稀疏性,對于長序列而言,稀疏程度進一步擴大。選擇性注意力(Selective Attention)利用了稀疏性這一特性,選擇部分 token 來計算注意力,結合外推的位置編碼能將短序列模型應用到長序列任務上的同時,顯著降低計算量。在計算稀疏注意力時細粒度的 token 選擇方法能夠更加靈活、精準地定位到關鍵信息。然而,token 粒度選擇會引入巨大的計算開銷。這引出了一個核心的問題:如何在選擇性注意力方法中平衡靈活性與效率。針對這一挑戰,ESA 方法通過將 query 和 key 進行低維壓縮,顯著降低 token 選擇的計算復雜度,在外推場景下實現 token 粒度動態稀疏注意力機制。

具體而言,ESA 包括以下兩個核心步驟:

高效選擇:ESA 引入了一種基于 query 感知的 token 粒度選擇機制,基于壓縮后的 query 和 key 計算 token 的重要性分數,同時考慮周圍 token 的影響(鄰距影響力),以避免直接選擇 top-ranked token 導致的性能下降。

注意力計算:在選擇關鍵 token 后,ESA 使用被選中的 token 的完整的 query 和 key 進行注意力計算,而非對所有前序 token 進行計算,從而大幅降低復雜度。

2.ESA:基于 token 粒度的高效選擇性注意力

ESA 的主要創新點在于通過 token 粒度選擇性注意力機制,在保持模型準確率的同時顯著降低計算復雜度。具體來說,與現有的長序列外推方法不同,ESA 提出了一種基于 token 的細粒度選擇注意力,能夠在 prefilling 和 decoding 階段動態選擇最關鍵的少量 token,而不是固定 block 選擇或者永久丟棄不重要的 token。首先,ESA 將 query 和 key 經過簡單的一層 MLP 壓縮到原有維度的大約 3.2%,在低維空間計算重要性分數,顯著降低計算復雜度;其次,根據重要性分數選擇 topk 的 token,控制 key 的長度是固定的,這樣將注意力計算由原有的平方復雜度降低為線性復雜度。雖然選擇 token 是平方復雜度,但是由于將 query 和 key 壓縮到了更低維的空間,使得對于算力要求大大降低。

ESA 算法示意圖

ESA 的具體實現方式如下:輸入序列的 token 被分為 4 部分,注意力包括全局注意力和 window 的局部注意力,初始 token 和 ESA 選擇的 topk 中間 token 拼接起來計算全局注意力,localtoken 用于計算 window 的注意力,兩部分注意力進行融合計算最終的注意力。ESA 按照 chunked-prefill 緩存 key 和 value,即基于當前 chunk 的 query 選擇重要的中間 tokens,計算 token 的重要性時兼顧當前的所有 query;在解碼階段,只需要考慮當前的一個 token 的 query 即可。如果計算中間某個 token 重要性,需要計算和當前所有 token 的重要性,其中單個 token 的重要性用 query 和 key 的點積表示:

這里 H 是 head 的數量,為了降低復雜度 ESA 整合了所有的 head。為了進一步降低計算復雜度,不要求準確計算重要性分數,而是更關注相對大小,ESA 將 query 和 key 分別通過一層 MLP 進行壓縮。ESA 采取 offline 的方式學習 MLP 的權重:

ESA 使用一個小的校準數據集用模型進行推理,保存中間的 query、key 和 value,用于訓練降維 MLP,只增加了極少量的降低 query 和 key 大小的網絡權重,且無需對模型微調。

為了確保分數的相對大小,避免某個 token 在重要性分數中占據主導地位,ESA 對分數進行修正:

進一步的,作者發現僅選擇 topk 的 token 模型在大海撈針任務中只能檢索到部分信息,提出了鄰距影響力的概念,即對于某個中間的 token,其重要性分數不僅取決于自身的分數,還受到周圍 token 的影響,更新后的分數為:

在選擇完重要 token 后,ESA 使用完整的 query、key 和 value 計算注意力,最終的注意力輸出如下所示:

ESA 的計算復雜度降低主要來源于低維的 query 和 key 計算重要性分數以及選擇完成以后的線性注意力計算復雜度,經過理論計算,一步 attention 計算在長序列場景下能降低為原有的:

實際實驗中我們將 query 和 key 壓縮為原有的 3.2%,一步 attention 計算量在輸入序列足夠長時理論能降低至 1.6% 左右。

3. 實驗結果

論文選擇開源訓練集 Pile 的 2 條 Books3 樣本收集用于訓練降維 MLP 的 qk 樣本,query 和 key 從 4096 壓縮為 128,壓縮比例約為 l3.2%,注意力計算的窗口長度約為 6k。為了將開源的短序列模型應用到長序列中,ESA 沿用了 Infllm 的外推位置編碼設置,使用 Llama-3-8B-Instruct 和 Mistral-7B-Instruct-v0.2,在多個公開的長序列基準測試中驗證了 ESA 的性能,包括 Longbench、InfiniteBench、NeedleBench 等。作者對比了 full attention 的外推方法和同類型的基于 window 的外推方法,且同類型方法的 window 長度一致。實驗結果表明,ESA 通過高效靈活選擇重要的 token,總體性能在外推倍數足夠大時候優于 full attention 的方法,且均明顯優于同類型的方法,尤其在 multi needles 檢索場景下例如數星星和 NeedleBench,在其他同類型方法失效的時候,ESA 仍然有較高的準確率。

ESA 不對每個 head 單獨選擇 token,而是將所有 head 整合到一起計算重要性分數,有利于降低計算復雜度,提升效率,為了驗證這一操作對算法的影響,作者做的對比實驗如下所示,可以看出這樣的整合對于算法影響有限。

論文研究了鄰距影響力的超參數影響,結果如下所示,對不同的測評集該參數的影響不同,取值較小有利于 multi needles 類型的檢索任務,取值較大則有利于 single needle 類型任務,這可能是由于單針檢索任務只需要關注 ground truth 所在的片段即可,增大鄰距影響力有利于 attention 集中到較長的片段上。

4. 總結

ESA 有效平衡了長序列外推場景下的選擇性注意力中的靈活性和計算效率,用于在不進行模型參數增量微調的情況下擴展上下文長度。ESA 的核心思想是在每個步驟中選擇固定數量的最重要 token 來計算注意力,利用注意力矩陣的稀疏性。當輸入序列足夠長時,ESA 通過將 query 和 key 壓縮為低維表征,有效降低選擇 token 的計算復雜度。實驗評估表明,ESA 能夠有效處理長度為訓練長度 4 倍甚至 25 倍的各種長序列任務。未來的研究需要探索更準確、更高效的選擇重要 token 的方法,以及軟硬件協同的高效外推方案。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-09-19 10:07:41

2018-08-26 22:25:36

自注意力機制神經網絡算法

2022-03-25 11:29:04

視覺算法美團

2025-03-06 09:25:00

DeepSeek模型訓練

2025-02-25 10:21:15

2023-07-30 15:42:45

圖神經網絡PyTorch

2011-07-07 13:12:58

移動設備端設計注意力

2025-02-10 00:00:55

MHAValue向量

2022-04-23 10:47:49

英國交通部自動駕駛駕駛員

2024-06-28 08:04:43

語言模型應用

2024-02-19 00:12:00

模型數據

2025-01-13 08:23:07

LLMMHAMLP

2024-10-31 10:00:39

注意力機制核心組件

2023-11-24 12:36:00

模型訓練

2025-02-19 09:18:04

2014-05-19 11:24:18

Teradata 大數據天睿

2018-05-03 16:27:29

RNN神經網絡ResNet

2020-09-17 12:40:54

神經網絡CNN機器學習

2024-12-09 00:00:10

2021-05-06 12:50:19

Blanket環境噪音播放器開源
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产不卡一区 | 一区二区免费看 | 亚洲视频在线观看 | 中文字幕av色 | 日韩av免费看 | 国产免费观看久久黄av片涩av | 国偷自产av一区二区三区 | 日韩在线精品视频 | 成年免费在线观看 | 国产精品久久久久久久久久 | 欧美日产国产成人免费图片 | 精品国产女人 | 国产精品视频久久 | 欧美国产日韩在线观看 | 色又黄又爽网站www久久 | 欧洲一区二区视频 | 午夜精品久久久久久久久久久久 | 精品久久久久久亚洲综合网 | 免费观看日韩精品 | 亚洲在线一区二区 | 91亚洲精品国偷拍自产在线观看 | 韩日中文字幕 | 亚洲欧美在线一区 | 国产精品一区二区三区久久久 | 亚洲国产91 | 大学生a级毛片免费视频 | 国产91精品久久久久久久网曝门 | 精品久久影院 | 久久久久久国产精品mv | 欧美一区二区三区久久精品 | 亚洲精品电影在线观看 | 91午夜在线 | 久久亚洲国产精品日日av夜夜 | 91夜夜夜 | 久久久精品亚洲 | 成人黄色三级毛片 | 99久久中文字幕三级久久日本 | 日韩aⅴ片| 性高湖久久久久久久久3小时 | 午夜视频免费在线 | 亚洲国产一区在线 |