成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

視覺強化微調!DeepSeek R1技術成功遷移到多模態領域,全面開源

開源 人工智能
今天給大家重磅推薦一個突破性的視覺強化微調開源項目 —— Visual-RFT (Visual Reinforcement Fine-Tuning)。

今天給大家重磅推薦一個突破性的視覺強化微調開源項目 —— Visual-RFT (Visual Reinforcement Fine-Tuning)。

論文地址:  https://arxiv.org/abs/2503.01785

代碼地址: https://github.com/Liuziyu77/Visual-RFT

視覺強化微調 Visual-RFT 將 DeepSeek-R1 背后的基于規則獎勵的強化學習方法和 OpenAI 的強化微調(Reinforcement Fine-Tuning,RFT)范式成功從純文本大語言模型拓展到了視覺語言大模型(LVLM)。通過針對視覺的細分類、目標檢測等任務設計對應的規則獎勵,Visual-RFT 打破了 DeepSeek-R1 方法局限于文本、數學推理、代碼等少數領域的認知,為視覺語言模型的訓練開辟了全新路徑!

圖 1 用一張包含許多寶可夢的圖片展示了這一過程,當通過多模態強化微調 Visual-RFT 訓練的模型被提問什么寶可夢可以釋放技能十萬伏特時,模型通過 < think > 推理過程準確找出皮卡丘對應的坐標框,展示出模型的泛化能力。

圖 1. Visual-RFT 首次實現將強化微調能力遷移到多模態模型中,只需 10~1000 條數據就能通過思考過程和基于規則的監督提升多模態大模型的性能

從 R1 到 Visual-RFT:強化學習的多模態突破

OpenAI o1 主打的強化微調能力(Reinforcement Fine-Tuning)能只用少量樣本就將 o1 遷移到新的任務上。最近 DeepSeek-R1 解釋了 o1 模型背后的強推理能力來自基于可驗證獎勵(Verified Rewards)/ 規則獎勵(Rule-based Verifier)的強化學習策略。不過,目前主流的認知在于這種基于規則獎勵的方法只適用于數學推理、代碼等少數便于驗證的任務。我們在 Visual-RFT 中,將這一策略遷移到了視覺語言模型。通過對細分類、目標檢測等任務建立對應的可驗證規則獎勵,我們解決了傳統方法在視覺領域中的局限性,只需少量微調樣本就實現了更高效、泛化性更強的視覺理解與推理能力。

傳統的視覺指令微調(Visual Instruction Tuning/Supervised Fine-Tuning,SFT)需要海量數據對模型微調,在數據量有限(例如某些難以收集數據的特定學科場景)的情況下帶來的提升有限。我們提出的視覺強化微調(Visual Reinforcement Fine-Tuning)具有少樣本學習能力和更強的泛化性,在數據量有限的場景下相比指令微調具有很大的優勢。

為驗證 Visual-RFT(視覺強化微調)的泛化能力和普適性,力求對視覺領域的全面覆蓋,我們在多個視覺感知任務上對 Visual-RFT 進行驗證,包含 Detection,Classification,Grounding 等。其中,Visual-RFT 在 open vocabulary,few-shot learning 等設定下,僅僅通過非常少量的數據就取得了顯著的性能提升,輕松實現能力的遷移,且結果明顯優于 SFT 的微調方法。在 reasoning grounding (推理定位) 的測試中,Visual-RFT 展現出強大的視覺推理能力。評測結果如圖二所示,詳細實驗信息歡迎參見論文。

圖 2. Visual-RFT(視覺強化微調)在各種任務上顯著超越 SFT:包括目標檢測(OD),開放目標檢測(OVD),少樣本檢測與分類(FSOD/IC), 推理定位(Reasoning Grounding)

圖 3. 框架圖:Visual-RFT(視覺強化微調)通過 IoU 和 cls 獎勵和強化學習策略(例如 GRPO)更新模型參數

為了在視覺多模態領域驗證可驗證獎勵的作用,我們提出了使用基于 IoU 的 verified reward 獎勵應用于 detection 和 grounding 等任務,使用基于分類正確判斷的 cls reward 用于 classification 任務(如圖三所示)。

圖 4. 部分推理定位結果展示,通過引入思考過程和強化學習策略 Visual-RFT(多模態強化微調)顯著超越 SFT,更加準確地定位物體。

圖 5. 部分推理細粒度分類結果展示,通過引入思考過程和強化學習策略,(多模態強化微調)Visual-RFT 顯著超越 SFT,更加準確地定位物體。

部分模型輸出結果展示如圖 4 和圖 5 所示,相比于傳統的視覺指令微調(Visual Instruction/Supervised Fine-Tuning),Visual-RFT(視覺強化微調)通過強化學習方法,對問題進行深入的 think 分析取得更佳推理性能,相較于傳統的指令微調(SFT)方法取得顯著提升。如詢問模型圖中的運動員在水下依然保持清晰的視野需要帶什么物體時,通過傳統指令微調的方法模型直接將整個運動員框出。而 Visual-RFT 通過引入推理過程準確地指出防水眼鏡及其所在的位置并準確框出。

Visual-RFT 實驗結果

Visual-RFT(視覺強化微調)在各大圖文感知任務中均展現出強大的性能。我們的實驗主要基于視覺語言大模型基座 QWen2-VL 2B/7B 模型,和傳統的監督微調(Supervised Fine-Tuning)方法進行對比。在開放目標檢測,少樣本檢測,細粒度分類和推理定位任務上 Visual-RFT 相比 SFT 全面實現了性能提升。值得一提的是,我們的測試數據既包含 COCO、LVIS 等通用場景,又包含從互聯網中收集的卡通人物等開放場景數據。只需要幾十條數據,模型通過 Visual-RFT 可以學會檢測某動漫中的史萊姆形象。實驗結果廣泛驗證了 Visual-RFT 的卓越性能和魯棒性。

圖 5. 部分實驗結果展示,Visual-RFT 顯著超越 SFT,建立了新的模型微調范式

Visual-RFT 已經開源!歡迎加入!

我們堅信開源的力量,Visual-RFT 項目已全面開源(包含訓練、評測代碼,數據)。如果你對多模態模型、強化學習、視覺語言理解感興趣,不妨一起來探索更多可能性吧!

項目地址:https://github.com/Liuziyu77/Visual-RFT

責任編輯:趙寧寧 來源: 機器之心
相關推薦

2025-02-20 17:19:08

2025-03-13 08:13:47

DeepSeekMLLMVision-R1

2025-04-09 09:15:00

數據模型AI

2025-01-27 12:30:07

2025-02-20 15:32:28

2025-02-07 13:10:06

2025-03-03 08:17:00

DeepSeek模型數據

2025-04-09 09:41:43

2025-02-25 08:20:50

AI程序員DeepSeek

2025-02-08 11:31:17

DeepseekR1模型

2025-02-12 12:12:59

2025-04-15 09:22:00

AI訓練模型

2025-02-11 08:35:30

2025-03-13 11:07:30

2025-03-11 02:00:00

AI工具Token-AI

2025-02-03 06:00:00

2025-02-03 14:17:27

2025-06-26 09:13:22

2025-02-18 10:54:04

2025-02-11 16:11:12

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久国产综合 | 精品国产一区二区三区av片 | 日韩欧美在线观看 | 亚洲福利在线观看 | 国产精品久久久久久久久久免费看 | 久久精品99 | 91黄色片免费看 | 天天干天天干 | 刘亦菲国产毛片bd | 亚洲视频三区 | 麻豆久久久久久久 | 二区中文| 色就是色欧美 | 黄在线免费观看 | 男女视频在线观看网站 | 91精品久久久久久久久久入口 | 99热视| 夫妻午夜影院 | 黄网站免费在线看 | 国产精品av久久久久久毛片 | 国产精品久久久久久久久久不蜜臀 | 成人激情视频在线播放 | 国产精品一区二区三区四区 | 日本不卡视频 | 亚洲午夜精品一区二区三区他趣 | 欧美一区二区免费电影 | 高清黄色网址 | 亚洲综合久久久 | 成人国产精品色哟哟 | 一区二区三区在线播放 | 欧美日韩在线综合 | 日本免费在线 | 久久久久久毛片免费观看 | 亚洲国产一区二区在线 | 在线观看亚洲精品视频 | 一本色道久久综合亚洲精品高清 | 精品视频一区二区三区在线观看 | 亚洲国产精品成人 | 国产成人在线观看免费 | 精品国产一区二区三区性色av | 电影在线 |