成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

擴散LLM推理用上類GRPO強化學習!優于單獨SFT,UCLA、Meta新框架d1開源

人工智能 新聞
大語言模型的推理能力,不再是 AR(自回歸)的專屬。擴散模型現在也能「動腦子」,新框架 d1 讓它們學會了解數學、懂邏輯、會思考。

當前,強化學習(RL)方法在最近模型的推理任務上取得了顯著的改進,比如 DeepSeek-R1、Kimi K1.5,顯示了將 RL 直接用于基礎模型可以取得媲美 OpenAI o1 的性能。

不過,基于 RL 的后訓練進展主要受限于自回歸的大語言模型(LLM),它們通過從左到右的序列推理來運行。

與此同時,離散擴散大語言模型(dLLM)成為有潛力的語言建模的非自回歸替代。不像以因果方式逐 token 生成文本的自回歸模型那樣,dLLM 通過迭代去噪過程生成文本,在多步驟操作中優化序列的同時并通過雙向注意力利用過去和未來的上下文。其中,LLaDA 等開放的掩碼 dLLM 實現了媲美同尺寸自回歸模型的性能,而 Mercury 等閉源 dLLM 進一步展現了出色的推理延遲。

然而,頂級的開源 dLLM 并沒有使用 RL 后訓練,使得這一有潛力的研究方向還有很大的挖掘空間。這一范式轉變引出了重要的問題:RL 后訓練如何在非自回歸上下文中高效地實現?

RL 算法適應掩碼 dLLM 面臨一些獨特的挑戰,原因在于自回歸模型采用的已有方法(如 PPO、GRPO)通過計算生成序列的對數概率來估計和優化策略分布,導致無法直接應用于 dLLM。雖然這種計算在自回歸模型中通過序列因式分解很容易實現,但 dLLM 由于它們的迭代、非序列生成過程而缺乏這種自然分解。

為了解決這些問題,來自 UCLA 和 Meta AI 的研究者提出了一個兩階段后訓練框架 d1,從而可以在掩碼 dLLM 中進行推理。在第一階段,模型在高質量推理軌跡中進行監督微調;在第二即 RL 階段,研究者引入了用于掩碼 dLLM 的新穎策略梯度方法 diffu-GRPO,它利用提出的高效一步(one-step)對數概率估計在 GRPO 的基礎上創建。

研究者表示,他們的估計器利用了隨機提示詞掩碼,作為策略優化的一種正則化,使得可以擴展 per batch 的梯度更新數量并減少 RL 訓練所需的在線生成數量。這將極大地降低計算時間。

圖片

  • 論文標題:d1: Scaling Reasoning in Diffusion Large Language Models via Reinforcement Learning
  • 論文地址:https://arxiv.org/pdf/2504.12216
  • 項目主頁:https://dllm-reasoning.github.io/
  • GitHub 地址:https://github.com/dllm-reasoning/d1

在實驗部分,研究者使用 LLaDA-8B-Instruct 作為基礎模型實例化 d1。他們將 d1-LLaDA 的性能與基礎 LLaDA 模型以及僅使用 SFT 和僅使用 diffu-GRPO 訓練的 LLaDA 模型進行比較。結果表明,d1 在四個數學和邏輯推理基準測試中始終優于基礎模型,如下圖 1 所示。d1-LLaDA 同樣優于僅使用 SFT 方法和僅使用 diffu-GRPO 方法的模型。

圖片

方法概覽

d1 是一個兩階段框架,通過依次結合監督微調(SFT)和在線強化學習(RL)來增強預訓練掩碼 dLLMs 的推理性能。

其中,在線強化學習(特別是 GRPO 算法)已被證明能有效提升離線訓練語言模型的性能。然而,GRPO 的學習策略并不能直接泛化到 dLLMs。

GRPO 的目標函數(如公式 3 所示)需要同時計算當前策略 π_θ 和舊策略 π_θold 在以下兩個層面的(對數)似然比:

  1. token 層面(用于優勢權重計算);
  2. 序列層面(用于反向 KL 散度項)。

核心問題在于:研究者需要高效計算 dLLMs 生成內容的逐 token 對數概率和序列對數概率。

自回歸(AR)模型,如 Transformer,直接對每個 token 的對數概率進行建模,并且可以通過鏈式法則使用一次前向傳遞輕松計算出序列級別的對數概率image.png。同樣,KL 項可以分解為image.png

與 AR 模型不同,dLLMs 不遵循序列對數概率的順序分解。同時,每個 token 的對數概率計算成本也很高,因為解碼過程中需要多次調用掩碼預測器 f_θ?;诖?,該研究提出了一個高效的對數概率估計器。

對于序列對數概率,該研究使用均場近似方法,將其分解為獨立的每個 token 對數概率的乘積。

對于每個 token 的對數概率,該研究引入了一種估計方法,該方法僅調用一次 f_θ。

基于新引入的對數概率估計器,該研究將 GRPO 擴展到掩碼 dLLMs,推導出 diffu-GRPO 的損失函數。

圖片

算法如下圖所示。

圖片

實驗結果

表 1 報告了基線模型 LLaDA-8B-Instruct 與采用不同后訓練優化方案的模型,在四項任務上的零樣本性能對比。

圖片

圖 3 繪制了有效 token 的平均數量:

圖片

基于實驗,該研究得出以下主要發現:

diffu-GRPO 在所有 12 種設置中都一致優于基礎的 LLaDA 和 SFT(監督式微調)。diffu-GRPO 和 SFT 都相較于 LLaDA-8B-Instruct 基線有所提升,但 diffu-GRPO 顯示出更持續且幅度更大的增益。具體來說,diffu-GRPO 在所有 12 種設置中都優于 LLaDA-8B-Instruct 和 SFT,而 SFT 僅在其中的 7 種設置中優于 LLaDA-8B-Instruct,這表明 diffu-GRPO 相比于單獨的 SFT 實現了更強的整體性能提升。

LLaDA+diffu-GRPO 在所有設置中都優于基礎的 LLaDA-8B-Instruct 模型,而 d1-LLaDA 在每種情況下都超過了 LLaDA+SFT。這表明,無論初始化是來自預訓練模型還是經過 SFT 調整的檢查點,diffu-GRPO 都能提供可靠的性能提升。

d1 訓練方案實現了最顯著的性能提升。通過先進行監督微調(SFT)、再結合 diffu-GRPO 訓練所形成的 d1-LLaDA 模型,產生了超越單一方法的疊加增益。這種組合式方法在 12 個實驗設置中有 11 項優于純 diffu-GRPO 方案,表明兩個訓練階段存在協同效應。

定性結果表明,在 SFT 和 d1-LLaDA 生成中出現了頓悟時刻。盡管與 LLaDA-8B-Instruct 相比,生成序列長度為 128 和 256 的性能隨著 SFT、diffu-GRPO 和 d1 有所提高,但從質的方面看,在生成的推理軌跡中并未觀察到顯著差異。然而當序列長度達到 512 時,該研究開始觀察到 SFT 和 d1-LLaDA 模型展現出兩種關鍵能力:自我修正機制和回溯行為。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-05-30 04:00:00

IBMRLVRGRPO

2024-09-13 06:32:25

2025-06-03 08:49:00

2025-06-03 03:15:00

2025-05-28 02:25:00

2025-06-05 06:36:17

2025-02-03 00:00:01

Ai2o1LLM

2025-06-23 09:07:00

2020-11-16 08:54:05

Google 開源技術

2025-06-27 15:44:35

蘋果AI模型

2024-04-12 08:59:02

強化學習系統人工智能擴散模型

2025-03-24 09:50:00

大模型自動駕駛AI

2025-03-10 09:00:00

訓練模型AI

2025-05-30 10:50:27

2025-02-08 14:03:25

2025-03-21 13:00:54

2025-03-11 01:00:00

GRPO算法模型

2025-01-21 09:36:51

2024-09-30 14:40:00

AI強化學習框架

2025-03-11 08:37:42

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日本淫视频 | 日日操夜夜操天天操 | 久久久久久中文字幕 | 精品影院 | 精品亚洲一区二区三区 | 国产精品久久久久久久久久免费看 | 国产成人福利在线观看 | 97av视频在线观看 | 国产精品一级在线观看 | 久久久精 | 国产一区二区三区高清 | 一区二区成人 | 欧美精品成人 | 欧美综合国产精品久久丁香 | 成人精品国产一区二区4080 | 欧美xxxx在线 | 亚洲黄色片免费观看 | 天天视频成人 | 免费成人在线网站 | 欧美精品一区二区免费视频 | 亚洲精品免费在线观看 | 超级碰在线 | 日本不卡一区 | 亚洲精品91 | 亚洲欧美综合精品久久成人 | 中文字幕av亚洲精品一部二部 | 国产成人亚洲精品自产在线 | 国产成人精品一区二区三区四区 | 国产高清在线精品一区二区三区 | 久久精品久久综合 | 亚洲网视频| 国产精品欧美一区二区三区 | 久久久久99| 色偷偷噜噜噜亚洲男人 | 久久久久久久国产精品视频 | 国产福利观看 | 韩日精品一区 | 一级爱爱片 | 综合一区二区三区 | 日日草夜夜草 | 不卡的av一区 |