成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

爆火Block Diffusion引發LLM架構變革?自回歸+擴散模型完美結合

人工智能
塊離散去噪擴散語言模型(BD3-LMs)結合自回歸模型和擴散模型的優勢,解決了現有擴散模型生成長度受限、推理效率低和生成質量低的問題。通過塊狀擴散實現任意長度生成,利用鍵值緩存提升效率,并通過優化噪聲調度降低訓練方差,達到擴散模型中最高的預測準確性,同時生成效率和質量優于其他擴散模型。

擴散模型被廣泛應用于生成圖像和視頻,并且在生成離散數據(如文本或生物序列)任務上的效果也越來越好,與自回歸模型相比,擴散模型有望加速「生成過程」并提高模型輸出的「可控性」。

然而,離散擴散模型目前仍然有三個局限性

  1. 在聊天系統等應用中,模型需要生成任意長度的輸出序列(例如,對用戶問題的回答),但大多數現有的擴散架構只能生成固定長度的向量;
  2. 離散擴散在生成過程中使用雙向上下文,因此無法利用鍵值緩存(KV caching)復用之前的計算,使得推理效率較低。
  3. 從困惑度等標準指標來看,離散擴散模型的質量仍落后于自回歸方法,也進一步限制了其應用范圍。

為了克服這些局限性,康奈爾科技校區(Cornell Tech)、斯坦福大學的研究人員提出了「塊離散去噪擴散語言模型」(BD3-LMs,Block Discrete Denoising Diffusion Language Models),介于離散擴散模型和自回歸模型之間:塊擴散模型(也稱為半自回歸模型)在離散隨機變量的塊上定義了一個自回歸概率分布;給定前面的塊,當前塊的條件概率由離散去噪擴散模型指定。

圖片圖片

論文鏈接:https://arxiv.org/pdf/2503.09573

代碼鏈接:https://github.com/kuleshov-group/bd3lms

想要開發出一個高效的BD3-LMs,仍然有兩大難題需要解決:

  1. 計算塊擴散模型的訓練目標無法通過神經網絡的標準前向傳播實現,需要開發專門的算法;
  2. 擴散目標的梯度方差較大,導致即使在塊大小為1(此時兩種模型理論上等價)時,BD3-LMs的表現仍不如自回歸模型。

研究人員通過推導梯度方差的估計器,發現了導致自回歸模型與擴散模型之間困惑度差距的關鍵因素,文中提出了定制的噪聲過程,以最小化梯度方差,并縮小了困惑度差距。

圖片圖片

自回歸生成過程自回歸生成過程

擴散生成過程擴散生成過程

圖片圖片

塊擴散生成過程塊擴散生成過程

圖片圖片

研究人員在語言建模基準測試中評估了BD3-LMs,結果表明,該模型能夠生成任意長度的序列,包括超出其訓練上下文長度的序列,并且在離散擴散模型中達到了新的最低困惑度。

與在嵌入層上進行高斯擴散的其他半自回歸方法相比,文中提出的離散方法具有可處理的(tractable)似然估計,并且在生成步驟少了一個數量級的情況下,生成樣本的困惑度還更低。

Block Diffusion語言建模

自回歸語言模型vs擴散語言模型

語言建模任務就是從數據分布q(x)中獲得具有L個token的序列圖片,目標是擬合出一個服從q分布的模型圖片。

自回歸模型(Autoregressive Models)將token的分布分解成一種逐步生成的形式,即根據前面的token來預測下一個token

圖片

但這種方法存在一個問題:由于token之間的順序依賴關系,自回歸模型在生成長序列時需要逐個token進行采樣,可能會導致生成速度變慢。

相比之下,擴散模型(Diffusion Models)通過獨立建模tokens實現了并行生成,其核心思想是通過「去噪」來逆轉預先設計的「加噪」過程,利用轉移矩陣(transition matrices)告訴模型如何從噪聲中恢復出清晰的token

圖片

然而,擴散模型也有局限性,其目標是最小化似然的一個上界,也就意味著在生成質量和預測準確性方面可能不如自回歸模型;并且擴散模型目前只能生成固定長度的序列,限制了其在生成任意長度輸出應用中的靈活性。

BD3-LMs

研究人員結合了自回歸模型在「生成質量」和「靈活長度生成」方面的優勢,以及擴散模型在「快速并行生成」方面的優點,提出了塊離散去噪擴散語言模型(Block Discrete Denoising Diffusion Language Models,BD3-LMs)。

塊擴散似然

研究人員提出了一種新的建模框架,將token分組成塊(block),并在每個塊內執行擴散操作。

具體來說,模型以自回歸的方式處理這些塊,同時在每個塊內部使用擴散模型進行生成,其似然函數可以分解為B個長度為L'的部分。

圖片

每個塊圖片都通過離散擴散的變分下界(ELBO)來建模,覆蓋的塊尺寸為L'個token。

通過優化似然下界,可以得到一個合理的訓練目標:

圖片

研究人員采用一種簡單的離散擴散參數化方法來建模每個塊的似然,最終模型的目標函數變成了加權交叉熵項的總和。

圖片

高效訓練與采樣算法

通常情況下,需要循環B次圖片操作來計算結果,研究人員提出了一種高效訓練方法,只需要進行兩次正向傳播即可完成計算。

第一次正向傳播會預先計算出整個序列的鍵(keys)圖片和值(values)圖片;第二次正向傳播則利用這些預先計算好的鍵和值,同時為所有塊生成去噪后的預測結果。

在從塊離散去噪擴散語言模型(BD3-LMs)中采樣時,一次生成一個塊,并且這個塊的生成是基于之前已經生成的塊的條件。

生成一個塊后,像自回歸模型(AR)一樣將鍵和值緩存起來;在生成過程中,可以使用任意擴散采樣方法,從條件分布中生成樣本,并且每個塊的采樣步驟可以獨立進行。

圖片

擴散模型與自回歸模型之間的似然差距

單個token生成

塊擴散模型在理論上與自回歸模型的負對數似然(NLL)是等價的,尤其是在L'=1的極限情況下。

然而,研究人員發現,在LM1B數據集上訓練這兩種模型時,即使在塊大小為1的情況下,塊擴散模型與自回歸模型之間仍然存在2個點的困惑度差距。

經過分析,可以發現擴散模型的目標函數在訓練過程中具有較高的方差,是導致困惑度差距的主要原因。

圖片圖片

在離散擴散模型的訓練中,使用變分下界(ELBO)時會遇到高方差的問題。

從直覺上來說,如果被遮蔽的部分太少,那么恢復原始內容就會很容易,這種情況下模型就得不到有效的學習信號;

反過來,如果把所有內容都遮蔽掉,那么最優的恢復方式就是簡單地根據數據分布中每個token的獨立概率來進行猜測,這種任務雖然容易完成,但也同樣沒有意義。

最終的目標是找到一種合適的噪聲調度(noise schedule),以減少由擴散目標引起的訓練過程中的波動,并進一步縮小模型在困惑度上的差距。

為了避免因遮蔽率(masking rates)過高而導致訓練過程中的大幅波動,研究人員在訓練塊離散去噪擴散語言模型(BD3-LMs)時,采用了「限制性」的遮蔽率:通過降低訓練過程中的波動,當在評估時使用均勻采樣的遮蔽率時,模型的預測準確性得到了提升。

由于最優的遮蔽率可能因塊的大小而有所不同,研究人員在訓練過程中自適應地學習這些遮蔽率,在每次驗證步驟中,每完成5000次梯度更新后,通過網格搜索來優化遮蔽率。

研究結果表明,針對每個塊大小優化噪聲調度可以減少損失估計器的方差,并在與其他噪聲時間表的比較中實現最佳的困惑度性能。

實驗結果實驗結果

似然評估

BD3-LMs在擴散模型中達到了最先進的預測準確性(似然性),通過調整塊的長度,BD3-LMs能夠在擴散模型的似然性和自回歸模型的似然性之間實現平衡。

圖片圖片

任意長度序列生成

許多現有的擴散語言模型有一個重大缺陷:無法生成比訓練時選擇的輸出上下文長度更長的完整文檔。

例如,OpenWebText數據集中包含的文檔最長可達13.1萬個tokens,但離散擴散模型SEDD只能生成最多1024個token的內容。

圖片圖片

實驗結果展現了BD3-LMs能夠通過解碼任意數量的塊來生成長度可變的文檔,研究人員評估了BD3-LMs在生成長度可變的序列時的質量,并使用相同的生成步數(NFEs)來比較所有方法。

研究人員還測量了在GPT2-Large模型下采樣序列的生成困惑度,結果顯示BD3-LMs在所有之前的擴散方法中達到了最佳的生成困惑度。

圖片圖片

研究人員還將其與半自回歸SSD-LM進行了比較,在詞嵌入上執行高斯擴散,但無法進行似然估計;相比之下,文中提出的離散方法在少一個數量級的生成步數下,生成的樣本具有更低的生成困惑度。

簡單來說,BD3-LMs不僅能夠生成任意長度的文檔,而且在生成效率和質量上都優于其他擴散模型。

參考資料:https://arxiv.org/pdf/2503.09573

責任編輯:武曉燕 來源: 新智元
相關推薦

2025-03-17 08:25:00

模型AI訓練

2025-02-27 13:45:00

2024-04-26 12:51:48

2022-09-13 14:54:08

模型AI

2025-05-30 15:54:16

模型AI生成

2024-02-29 12:56:00

AI訓練

2024-02-27 09:43:48

視頻模型

2025-05-19 08:20:00

2024-11-12 13:10:49

2024-12-23 13:30:00

2025-06-04 13:55:03

AI模型技術

2025-01-13 08:20:00

AI模型訓練

2025-06-11 09:21:28

2022-09-13 15:40:56

模型分析

2024-05-11 00:00:00

DiffusionLLM模型

2025-04-07 08:50:00

模型AI數據

2024-02-22 09:26:33

AI模型

2025-05-27 15:28:11

模型訓練AI

2024-10-23 14:04:24

2023-04-20 17:47:57

模型開源
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 中国一级特黄真人毛片免费观看 | 国产免费一区二区三区最新6 | 国产一区二区三区视频免费观看 | 久久精品亚洲精品国产欧美 | 国产精品久久精品 | av天天看 | 国产高清精品在线 | 午夜专区 | 在线观看 亚洲 | 日韩a在线 | 欧美韩一区二区 | 性大毛片视频 | 国产四虎 | 久久久久久国产精品免费免费 | 超碰在线观看97 | 欧美a在线| 色综合天天天天做夜夜夜夜做 | 激情欧美一区二区三区 | 91高清视频在线观看 | 亚洲成人免费观看 | 国产精品中文字幕在线 | 亚洲一区 中文字幕 | 色综合久久天天综合网 | 99在线精品视频 | 中文字幕一区二区三区在线观看 | 亚洲第一成人影院 | 黄片毛片在线观看 | 欧美日韩一区二区三区四区 | 国产精品视频网站 | 国产成人99久久亚洲综合精品 | 亚洲精品久久久久久久不卡四虎 | 国产成年人小视频 | 日韩中文字幕2019 | 懂色av色香蕉一区二区蜜桃 | 久久久久久成人 | 国产探花在线精品一区二区 | 国产二区av | 日韩av最新网址 | 91久久久久久久 | 精品不卡 | 青草久久免费视频 |