成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

20個樣本,搞定多模態思維鏈!UCSC重磅開源:邊畫框,邊思考

人工智能 新聞
GRIT能讓多模態大語言模型(MLLM)通過生成自然語言和圖像框坐標結合的推理鏈進行「圖像思維」,僅需20個訓練樣本即可實現優越性能!

現有開源多模態推理模型(Multimodal Reasoning Model)生成的推理鏈幾乎都是純自然語言,缺少對圖像信息的顯式引用與整合。

圖片

讓多模態大語言模型(MLLM)既能條理清晰的思考,又能真正將推理過程「落到畫面」上,在實現上仍然存在兩個難點:

1. 全是自然語言的思考內容看似很長,其內容有可能脫離圖像信息,不一定能真正「看圖說話」;

2. 教會模型新的看圖思考方式動輒要成千上萬條有標注的數據,門檻極高。

針對此問題,加州大學圣克魯斯分校的研究人員提出了GRIT (Grounded Reasoning with Images & Texts) 模型,具有高關聯和輕量級的特性。

圖片

論文地址:https://arxiv.org/abs/2505.15879

代碼鏈接:https://github.com/eric-ai-lab/GRIT

在線Demo:https://grounded-reasoning.github.io/

· 高關聯

模型可以在思考鏈里隨時插入框坐標,實現真正的 「圖像思維」(Thinking with Images)。

GRIT采用的Grounded Reasoning范式,一次模型推理,[x1,y1,x2,y2]框直接織進思考鏈,實現「思路和證據同步」,所想即所見。

· 輕量級

其訓練方法GRPO-GR具備三重獎勵(答案、格式、框),實現零人工標注,僅用20張圖像與問答的訓練數據就能教會模型畫框+推理。

GRIT二板斧

Grounded Reasoning

圖片

Grounded Reasoning范式建立在多模態大語言模型已具備的兩項原生能力——視覺定位 (grounding) 與語言推理 (reasoning)——之上,目標是把二者深度融合

讓模型在「想」(生成推理鏈)的同時「指」(輸出精準框坐標),從而讓「慢思考」不再停留在純自然語言,而是真正做到 「所見即所想,所想即所指」。

給模型一張圖和問題 ,會一次性返回兩段式結果 (c, a)

  • 推理鏈c—以<think>開頭,模型邊寫自然語言,邊在需要時插入[x1,y1,x2,y2]形式的框坐標,之后<rethink>引導的重思考將進一步整合框坐標對應的圖像信息;
  • 最終答案a—在<answer>標簽后給出答案。

c的生成過程中,模型每一步都可以自由決定是繼續寫文字還是生成一個框坐標。

輸出框坐標后,模型不會再回讀對應像素,而是繼續token輸出,要求模型理解并利用框坐標信息,融入后續推理,就像模型給自己出了一道Referring Expression Generation(REC)任務一樣。

Grounded Reasoning范式通過只傳遞數字坐標,避免了裁剪圖像或多輪回輸信息的計算開銷,流程輕量。

在此范式之下模型的輸出里的框坐標可以直接畫出,成為其推理的「看圖」依據,讀者既能讀到它的思考,也能順著坐標直接驗證圖中證據。

GRPO-GR訓練

為了讓模型在極小的數據量下就學會畫框來輔助推理,GRIT 采用了專門的強化學習方法GRPO-GR

它在GRPO的基礎上,引入三個獎勵信號來直接驅動策略 π_θ 生成符合 grounded reasoning 范式的序列。

格式獎勵 (r_format)信號檢查模型輸出的整體結構是否合規:

  • 是否正確使用<think><answer>等特殊標記;
  • 插入的邊界框[x1,y1,x2,y2]語法是否有效、坐標是否在合法區間內。 通過懲罰任何格式錯誤,模型很快學會在文字與坐標之間靈活、規范地切換。

計數獎勵 (r_count):對于要求回答某物體數量的問題,計數獎勵的信號鼓勵模型的輸出要數量上符合答案,最好一個框對應一個相關物體

r_count對比推理鏈里框的個數真實答案中的數量:二者一致即得分,否則扣分;可以讓模型在標記目標時兼顧完整性,避免多框、漏框或隨意畫框。

答案正確性獎勵 (r_ans):最終答案是否答對,由GPT-4o進行語義評估并結合BLEU相似度給分。 這樣的「老師」對自然語言表述具有強魯棒性,避免模型鉆格式空子,也進一步降低了人工評判成本。

圖片

得益于這三重獎勵的協同作用,GRPO-GR完全不依賴顯式的推理鏈標注或框標簽——只需提供題目、圖像和最終答案

在實踐中,即便訓練集只有20條數據,模型依舊能夠穩定學到「邊框邊想」的行為,并在多項基準測試上取得亮眼表現。

實驗結果:20 條樣本即可「看得準、想得對」

準確性評測

Qwen-2.5-VL-3B和InternVL-3-2B作為基座模型,只用來自VSR+TallyQA的共20張圖-問題-答案和GRIT方法訓練。

在6個測試集中,用GRIT方法,模型推理結果的準確性(ACC)相對于沒有經過訓練的基線明顯提高。而基線模型表現出割裂定位推理能力,他們無法兼顧在定位目標物體來畫框上比較準確的同時在回答問題上更加正確。

圖片

即使GRPO-GR訓練中沒有包含任何對畫框的位置的訓練信號,測試結果現實框的準確性(GroundingIOU, i.e.GIoU)也在用GRIT方法后得到了提升。

推理與畫框相互關聯

研究人員提出了VL Reasoning Cross-Modal Correlation來衡量推理鏈中的文字與框區域的對齊程度。

圖片

結果顯示,用GRIT方法的模型輸出的內容更好的融合了推理與畫框:框住什么,就談什么。

另外,在用GRIT方法的模型中,把推理鏈里的框坐標全部抹掉,再讓模型繼續生成。

結果顯示,后續生成的推理內容對圖像的注意力會大幅下降,說明畫出的框能進一步促進推理。

數據規模效應

研究人員進一步將訓練數據擴大,20到500,再增長到7000。

圖片

結果表明,隨著數據規模的增加,模型準確率雖可以進一步提高,但跨領域泛化依舊是難點。

即使同類訓練數據增加,在與訓練域差異較大的測試集上模型提升依然有限,提示未來需要更豐富、更異質的訓練數據,而不只是「更多同類題」。

即便是極小樣本設置,GRIT也能讓開源MLLM同時獲得「畫得準、講得清」的能力,并且畫框和推理在模型輸出中相輔相成;進一步放大數據規模,則帶來漸進式收益,并揭示了跨域推理的新挑戰。

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-03-25 09:06:11

2019-06-10 15:58:30

數據分析流量采集

2025-05-16 08:37:35

2024-12-26 01:20:53

多模態大模型圖片

2022-06-27 15:42:23

區塊鏈

2023-10-10 13:42:56

訓練數據

2013-09-24 10:58:00

編程生活方式

2020-12-02 10:20:33

Docker命令Linux

2012-05-01 20:26:01

iPhone

2024-08-09 14:48:00

2024-08-12 09:40:00

模型數據

2021-01-19 09:19:33

RPC調用過程框架

2009-12-18 11:15:17

ADSL寬帶共享上網

2023-07-05 17:21:10

云邊

2025-02-08 13:30:00

2016-10-10 12:56:59

銳捷

2025-06-23 08:47:00

2025-03-19 09:30:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 免费视频久久久久 | 午夜三级网站 | 日韩精品在线免费 | 亚洲成人黄色 | 国产精品久久久av | 精品国产一区二区国模嫣然 | 天堂一区在线 | 亚洲区视频 | 美女张开腿露出尿口 | 免费视频一区二区 | 久草福利 | 免费激情| 九九热精品在线视频 | 91视频进入 | www.久久| 亚洲一区免费在线 | 国产亚洲精品精品国产亚洲综合 | 日韩精品一区在线 | 欧美视频 | 亚洲精品在线免费 | 欧美在线a | 欧美 日韩 亚洲91麻豆精品 | 精品无码久久久久久久动漫 | 亚洲国产精品一区二区第一页 | 在线黄色影院 | 美女国内精品自产拍在线播放 | 奇米久久 | 狠狠亚洲| 亚洲啪啪一区 | 欧美一区二区三区在线 | 国产成人精品午夜视频免费 | japan21xxxxhd美女 日本欧美国产在线 | 国产精品精品3d动漫 | 91网站在线观看视频 | 中文字幕一区在线观看视频 | 欧美日韩一二三区 | 亚洲综合大片69999 | 欧美成人h版在线观看 | 日韩二区 | 福利在线观看 | 日韩在线观看一区 |