成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

首個多模態統一CoT獎勵模型來了,模型、數據集、訓練腳本全開源

人工智能 新聞
UnifiedReward-Think 展示了獎勵模型的未來方向 —— 不僅僅是一個 “打分器”,而是一個具備認知理解、邏輯推理與可解釋輸出能力的智能評估系統。

在多模態大模型快速發展的當下,如何精準評估其生成內容的質量,正成為多模態大模型與人類偏好對齊的核心挑戰。然而,當前主流多模態獎勵模型往往只能直接給出評分決策,或僅具備淺層推理能力,缺乏對復雜獎勵任務的深入理解與解釋能力,在高復雜度場景中常出現 “失真失準”。

那么,獎勵模型是否也能具備像人類一樣的深度思考能力?

近日,騰訊混元與上海 AI Lab、復旦大學、上海創智學院聯合提出全新研究工作 UnifiedReward-Think,構建出首個具備長鏈式推理能力的統一多模態獎勵模型,首次讓獎勵模型在各視覺任務上真正 “學會思考”,實現對復雜視覺生成與理解任務的準確評估、跨任務泛化與推理可解釋性的大幅提升。

圖片


  • 論文題目: Unified Multimodal Chain-of-Thought Reward Model through Reinforcement Fine-Tuning
  • 項目主頁:https://codegoat24.github.io/UnifiedReward/think
  • 論文鏈接:https://arxiv.org/pdf/2505.03318
  • GitHub:https://github.com/CodeGoat24/UnifiedReward
  • 模型:https://huggingface.co/collections/CodeGoat24/unifiedreward-models-67c3008148c3a380d15ac63a
  • 數據集:https://huggingface.co/collections/CodeGoat24/unifiedreward-training-data-67c300d4fd5eff00fa7f1ede

一、背景與動機:獎勵模型也需要 “思考”

當前的多模態獎勵模型大多只能對結果進行 “表面判斷”,缺乏深度推理與可解釋的決策依據,難以支撐對復雜視覺任務的精準評估。

該工作研究團隊提出關鍵問題:是否可以引入 “長鏈式思考”(Chain-of-Thought, CoT)機制,賦予獎勵模型更強的推理能力?

挑戰在于,當前缺乏高質量的多模態 CoT 獎勵推理數據,傳統 SFT 等訓練范式難以直接教會模型掌握推理過程。

他們認為,多模態大模型本身具備深層、多維度的推理潛力,關鍵在于設計一套高效訓練范式去激發并強化獎勵模型的 “思考能力”。

圖片

二、解決方案:三階段訓練范式,逐步進化獎勵模型推理能力

該研究提出一套新穎的 “三階段” 訓練框架,分為 “激發 → 鞏固 → 強化”,層層推進模型的推理進化:

階段一:冷啟動激發(Cold Start)

使用僅 5K 圖像生成任務的高質量 CoT 獎勵推理數據,讓模型學會基本的推理格式與結構。實驗表明,這一階段就能激發模型在多個視覺任務中的推理能力。

階段二:拒絕采樣鞏固(Rejection Sampling)

利用冷啟動后的模型在各視覺任務的泛化能力,對大規模多模態偏好數據進行推理,通過拒絕采樣剔除邏輯錯誤樣本,強化模型對正確思維鏈的推理模式。

階段三:GRPO 強化(Group Relative Policy Optimization)

針對推理錯誤樣本,引入 GRPO 強化學習機制,引導模型探索多樣化推理路徑,從錯誤中學習,逐步收斂到正確邏輯思考。

三、實驗亮點:獎勵模型不僅能 “顯示長鏈推理”,還能 “隱式邏輯思考”

UnifiedReward-Think 在多個圖像生成與理解任務中進行了系統評估,結果表明該模型具備多項突破性能力:

  • 更強可解釋性:能夠生成清晰、結構化的獎勵推理過程;
  • 更高可靠性與泛化能力:各視覺任務均表現出顯著性能提升;
  • 出現隱式推理能力:即使不顯式輸出思維鏈,模型也能作出高質量判斷,表明推理邏輯已 “內化” 為模型能力的一部分。

定量實驗:長鏈推理帶來全面性能飛躍

圖片

定量結果表明

  • 在圖像與視頻生成獎勵任務中,全面優于現有方法;
  • 在圖像理解類獎勵任務上,長鏈思維鏈推理帶來顯著性能提升,驗證了復雜視覺理解對深度推理能力的高度依賴;
  • 即便在不顯式輸出思維鏈的情況下,模型仍能通過隱式邏輯推理保持領先表現,相比顯式 CoT 推理僅有輕微下降,展現出強大的 “內化邏輯” 能力;
  • 與基礎版本 UnifiedReward 相比,加入多維度、多步驟推理帶來了多任務的全面性能躍升,驗證了 “獎勵模型也能深度思考” 的價值。

消融實驗:三階段訓練策略缺一不可

該工作進行了系統的消融實驗,驗證三階段訓練范式中每一步的獨立貢獻:

  • 冷啟動階段:模型學會了 CoT 推理的結構,但對獎勵預測的準確性仍較有限;
  • 拒絕采樣階段:通過篩除推理錯誤樣本,顯著提升了模型對 “正確思維鏈” 的偏好,有效增強了模型的穩定性與泛化性;
  • GRPO 階段:提升幅度最大,模型聚焦于錯誤推理樣本,通過多路徑推理探索,逐步收斂至更精確的推理過程,體現出該階段對 “推理糾錯” 的關鍵作用。
  • 無推理路徑的 GRPO 版本效果顯著下降。我們進一步驗證:若去除 CoT 推理、讓獎勵模型僅對最終答案進行 GRPO 強化,雖然略優于 baseline,但提升比較有限。說明僅優化結果遠不足以驅動深層推理能力的形成。

結論:顯式建模思維鏈推理路徑,是強化獎勵模型泛化與魯棒性的關鍵。GRPO 訓練階段之所以有效,根源在于 “強化正確推理過程”,而非僅僅是 “強化正確答案”。

圖片

圖片

定性效果展示

該工作在多種視覺任務中對模型進行了案例測試,展現出其按任務定制評估維度的能力。通過對圖像、視頻或答案進行細粒度、多維度打分,并基于各維度總分進行整體判斷。此設計有效緩解了多模態模型中常見的 “推理過程與最終評分語義脫節” 問題,顯著提升了評估的一致性與可信度。

圖片

圖片

圖片

圖片

圖片

圖片

四:總結

UnifiedReward-Think 展示了獎勵模型的未來方向 —— 不僅僅是一個 “打分器”,而是一個具備認知理解、邏輯推理與可解釋輸出能力的智能評估系統。

目前,該項目已全面開源:包括模型、數據集、訓練腳本與評測工具,歡迎社區研究者探索、復現與應用。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2023-06-06 14:09:32

模型開源

2025-06-13 08:45:00

數據模型可視化

2024-04-08 12:19:19

AI數據

2025-04-07 00:00:00

多模態大模型

2024-03-25 12:30:18

AI訓練開源

2023-12-10 15:21:39

2024-07-22 07:10:00

小模型機器學習蘋果

2023-09-13 13:21:52

模型數據

2024-12-18 18:57:58

2025-01-06 10:00:00

模型視覺生成

2022-01-21 15:33:56

架構模型AI

2024-07-04 10:13:18

2024-09-23 08:20:00

模型訓練

2022-08-08 09:47:09

AI算法模型

2025-04-10 09:15:00

模型AI數據

2025-03-10 02:00:00

2023-11-29 15:00:00

數據訓練

2021-12-02 13:43:42

達摩院AliceMind人工智能

2025-01-08 08:21:16

2024-03-18 15:01:58

SoraAI人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91精品亚洲 | 精品欧美一区二区在线观看 | 一区二区三区亚洲视频 | 国产免费人成xvideos视频 | 欧美成人精品一区二区男人看 | 日日骚视频 | 91亚洲欧美| 日韩午夜 | 精品国产一区二区国模嫣然 | 九九热免费观看 | 99精品一区二区三区 | 国产精品一区二区久久 | 国产精品成人在线 | 国产第一页在线观看 | 成人免费淫片aa视频免费 | 四虎成人av | 午夜精品| 日韩一级免费大片 | 国产精品亚洲一区 | 国产精品亚洲视频 | 亚洲精色| 亚洲 精品 综合 精品 自拍 | 亚洲www啪成人一区二区麻豆 | 亚洲久久在线 | 国产亚洲精品成人av久久ww | 欧美黄在线观看 | 综合久久亚洲 | 国产区在线观看 | 久久9999久久 | 日韩电影免费在线观看中文字幕 | 国产高潮好爽受不了了夜色 | 91电影在线播放 | 最新午夜综合福利视频 | 欧美国产精品一区二区三区 | 伊人网站在线观看 | 亚洲精品二三区 | 精品国产欧美一区二区三区成人 | 国产亚洲精品精品国产亚洲综合 | 性色av香蕉一区二区 | 久久久久久久久国产精品 | 久久夜视频 |