成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GPT-4V都搞不明白的未來推理有解法了!來自華科大&上科大

人工智能 新聞
華科大和上科大團隊提出了一個賦予多模態大語言模型前瞻性思維的學習范式,并基于這一范式構建了多模態大語言模型Merlin(梅林)。

多模態大語言模型展現了強大的圖像理解和推理能力。

但要讓它們基于當前觀測來對未來事件進行預測推理仍然非常困難。

即便是當前最強大的GPT-4V(如下圖所示),也無法很好地解決這一問題。

圖片

△ GPT-4V的錯誤案例

現在,華科大和上科大團隊提出了一個賦予多模態大語言模型前瞻性思維的學習范式,并基于這一范式構建了多模態大語言模型Merlin(梅林)

Merlin(梅林)是亞瑟王傳說中的一個傳奇人物,以其強大的魔法和智慧而聞名于亞瑟王傳說。傳說中梅林擁有預見未來的能力,并對命運有著深刻的理解。

圖片

來看看它具體是如何做的?

注:人類可以根據當前觀測狀態來推理出即將或者接下來一段時間可能會發生的事件,我們將這一能力稱為前瞻性思維。

一個簡單的例子:

當你在電視上觀看NBA球賽時,你可以根據場上不同球員的狀態來判斷接下來可能會出現的場景。

比如當一名進攻球員在持球突破防守人之后,我們有理由判斷這名球員即將沖到籃下進行上籃或者灌籃。

再比如當持球人在三分線停下并面向籃筐時,我們則有理由預測這名球員即將進行三分射籃(當然也有可能是假動作為了晃開防守人進行突破)。

Merlin大模型就可以進行此類預測。

方法介紹

為了探究如何賦予激發多模態大語言模型的前瞻性思維。

我們首先深入分析了人類是如何進行未來事件的預測的。

我們將人類進行未來事件的推理預測視為一個兩階段的系統。

首先一階段我們會對當前場景進行觀測,觀測過程當中重點捕捉相關主體的動態線索,第二階段我們的大腦會根據這個獲取的動態線索來分析主體的行為模式(比如奔行走或者奔跑等)及行為意圖,進而推理出即將可能發生的事件。

對標多模態大語言模型,我們認為第二階段是可以較好地完成的,這得益于大語言模型強大的邏輯推理能力。

所以問題出在了第一階段,也就是當前的多模態大語言模型難以成功捕獲相關主體的動態信息,進而限制了其對于未來事件推理的能力。

得到這一結論之后,接下來我們要做就是探究如何讓多模態大語言模型學會從當前觀測中捕捉相關主體的動態線索信息

為了實現這一目標,一個直接的方案就是讓多模態大語言模型學習預測下一幀的全部信息(也就是以重建下一幀為優化目標)

不過這么做一方面學習難度較大,另一方面圖像或者視頻序列存在大量的冗余視覺信息,這并不利于模型學會捕獲對應主體的動態信息。

基于上述分析,本文提出了一個以“軌跡”這一結構化表示作為優化目標來建立過去與未來之間的動態關聯。我們認為以軌跡作為優化目標有以下幾點好處:

(1)軌跡作為一種高度結構化的表征具有較強的信息凝練性,能夠幫助模型有效地提取出主體在連續動作中的關鍵動態信息,從而減少了對冗余視覺信息的學習需求,計算成本更低。

(2)軌跡可以很自然地將過去和未來關聯在一起,通過學習預測主體的軌跡,多模態大語言模型必須學會精確地關注對應的主體在不同幀中的對應位置,可以極大地增強模型多圖多身份 (Id)的對齊能力。

基于這些優點,我們設計了一個新型的學習框架,它專注于從多模態輸入(如圖像、視頻和文本)中提取和理解主體的運動軌跡并進行預測。此框架具體如下:

圖片

受到當前主流LLM學習范式的啟發,我們也構建了一個兩階段的學習范式,分別為前瞻思維預訓練(Foresight Pre-Training, FPT)以及前瞻思維指令微調(Foresight Instruction-Tuning, FIT)

在FPT中,我們首先會輸入包含數幀圖片的視覺上下文tokens給模型,然后我們會給予相關主體的第一幀的初始觀測(初始位置,表觀描述或者是動作描述),接著我們要求模型需要根據初始觀測來預測出對應主體的整條軌跡。

通過學習預測整條軌跡,模型必須學會正確關注多圖中的對應主體并捕捉其動態信息。

而在FIT中,則會加入一些相關的user prompt來進行關于相關主體的對話。

值得注意的是,為了在這一階段激發模型的前瞻性思維,我們也設計了一種以“軌跡”為核心的指令交互形式,我們將其稱之為軌跡思維鏈技術(Trajectory Chain-of-Thought,T-CoT)

具體來說,當和模型進行對話時,我們會要求模型將提及的相關主體的軌跡一并輸出(如上圖所示)

通過輸出整條軌跡,強制要求模型關注多圖中的對應主體,為后續的未來事件推理提供足夠的動態信息。更多方法細節,請閱讀論文。

數據構造

設計好了我們的學習范式之后,接下來更重要的是構建合適的數據來讓模型進行學習,我們基于現在市面上開源的數據精心構建了一整套多任務學習數據,數據分布具體如下:

主要包括Caption,Referring,Detection,Tracking,Reasoning以及Dialogue數據 *表示數據只用于指令微調階段(FIT)

圖片

這里梅林首次使用了由tracking數據構造的FPT數據來賦予模型軌跡感知及預測能力。

另一方面,我們也提出了精確任務及輸出形式提示(Precise Definition of Task Prompt and Answer Format)技術:

通過告訴大模型具體的任務以及輸出形式來避免多任務學習之間的沖突以及對通用多模態能力的損害。

我們后續的實驗也表明采用這一技術可以讓大模型兼顧學習多任務專有能力以及通用多模態能力。

能力展示

結合上述兩個學習過程以及構建的高質量數據,我們搭建了一個全新的通用多模態大語言模型,梅林(Merlin)。

Merlin可以支持單圖或多幀圖像序列的輸入,可以完成包括檢測,跟蹤,REC,REG等一系列任務。

同時得益于我們提出的FPT以及FIT,Merlin展現了強大基于軌跡的未來推理能力,這里我們挑一些cases來展示Merlin的能力,更多的測試結果請閱讀我們的論文以及后續開放的demo。

實驗分析

為了全面評測Merlin的各方面能力,我們設計了一系列性能比較試驗以及性質探究實驗,這里我們著重挑選幾個有啟發性的實驗來進行分享,更多實驗細節,請閱讀我們的論文。

1、未來推理(Future Reasoning)評測

由于當前領域內并沒有成熟的可以對多模態大語言模型進行評測的benchmark,所以本工作基于MMBench搭建了一套新的Future Reasoning Benchmark。

在這一benchmark上,Merlin顯著超越了現有的主流多模態大模型,展現了強大的未來推理能力。

圖片

    2、軌跡關聯及預測評測

由于Merlin將基于初始觀測進行相關主體軌跡預測作為預訓練中的一項核心學習目標,為了更全面的評測這一學習情況,我們重點選擇了tracking這一下游任務來進行評測。

這是由于軌跡關聯是tracking任務中的一個核心子任務,tracking的評測指標可以一定程度上反應大模型的多圖多id的對齊能力。

圖片

從結果可以看到Merlin作為一個通用多模態大語言模型,在tarcking任務上甚至超越了一些專家模型,同時值得注意的是這也是多模態大語言模型首次可以執行tracking相關的任務。

   3、幻覺評測

幻覺問題是大模型領域的一個重要研究課題,由于多模態大語言模型引入了視覺模態,由主體描述和對應的視覺信息無法準確對齊而導致的bias也進一步帶來了更加嚴重的幻覺。

本文中我們在POPE上對Merlin進行了幻覺評測來評估模型的圖文之間的對齊能力。如下表所示:

圖片

可以看到,Merlin展現了強大的抗幻覺能力,顯著領先當前的主流多模態大語言模型,這證明了我們提出的前瞻性思維訓練范式可以增強模型的“識圖”能力,讓模型減少對圖片內容的誤識別以及圖文之間的不一致問題。

   4、多模態綜合性能評測

Merlin同樣在當前的主流多模態大語言模型綜合能力(包括MMBench以及MMVet)以及視覺問答能力(包括GQA以及VisWiz)評測Benchmark上進行了評測。

評測結果表明Merlin都取得了非常有競爭力的結果,展現了Merlin強大的通用綜合能力。

圖片

    5、可視化分析

為了更直觀的展現Merlin對于動態信息線索的捕捉情況,本文也進行了一個有趣的可視化實驗,對于一個具體的對話問答,我們將模型輸出的軌跡坐標的word embedding與多幀圖片的視覺tokens之間的注意力圖進行了可視化,如下圖所示:

圖片

我們可以看到,模型輸出的估計坐標的word embedding可以準確的關注到對應幀中的對應目標主體。

這個可視化結果也進一步證明了“軌跡”是一個非常好的中間表示來幫助多模態大語言模型建立起語言描述和多幀圖像對應主體之間的動態關聯。

這也從另一個角度解釋了為什么Merlin具有強大的多模態綜合能力以及抗幻覺能力。

思考和總結

Merlin這一工作向我們展示了“軌跡”這一結構化表示在幫助多模態大語言模型具備前瞻性思維中的重要作用。

從這一點出發我們可以進一步思考回歸框(bounding box)以及軌跡(trajectory)究竟在多模態大語言模型的學習中究竟起到了什么樣的作用——

是作為一種中間形式還是可以作為一種單獨的學習優化目標?

另一方面現有的坐標編碼是否合理,有沒有什么更加適配自然語言的表示形式呢?

我想這些目前都還沒有標準答案,需要各位研究者們進一步深入的探索。最后希望Merlin這個工作能給多模態大模型社區帶來一些新的思考和認知,也歡迎大家持續關注我們的工作,多多交流。

論文:https://arxiv.org/pdf/2312.00589.pdf 

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-11-13 07:48:08

AI檢測

2021-03-01 07:59:24

架構系統Zachman

2024-06-11 14:30:18

2025-03-25 08:50:00

2025-03-24 00:00:15

2024-02-02 21:53:58

AI訓練

2024-02-06 09:00:00

GPT-4VLLaVA大型語言

2018-05-14 11:31:02

2018-05-14 17:36:59

2024-03-04 13:36:00

模型訓練

2021-12-17 07:30:42

排序算法效率

2023-12-01 12:32:04

數據訓練

2015-12-23 11:32:50

2023-10-19 09:32:45

自動駕駛技術

2023-11-13 18:19:35

AI訓練

2009-04-23 08:31:23

微軟鮑爾默收購

2025-06-10 09:07:00

2023-11-07 12:56:35

Redis主從復制

2024-04-14 19:53:44

2022-11-25 07:59:43

JavaIOGuava
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 中文字幕国产视频 | 久久精彩 | 在线中文视频 | 在线观看不卡av | 亚洲高清视频一区二区 | 黑人巨大精品欧美一区二区免费 | 国产精品久久久久久久久久免费看 | 九色 在线| 亚洲在线成人 | 久久久久久久久久影视 | 亚洲视频免费在线 | 国产欧美一区二区三区国产幕精品 | www国产成人免费观看视频,深夜成人网 | 国产精品久久毛片av大全日韩 | 久久久www成人免费无遮挡大片 | 国产一区二区三区四区三区四 | 国产精品毛片一区二区三区 | 丝袜久久| 国产欧美日韩综合精品一区二区 | 一级做a爰片久久毛片 | 日韩av电影院| 午夜三区 | 国产精品jizz在线观看老狼 | 日韩视频在线播放 | 色婷婷av777 av免费网站在线 | 国产精品一区二区三区在线播放 | 欧美日韩在线一区二区 | 久久久精品日本 | 一区二区在线 | 国产成人精品一区二区三区 | 欧美日在线| 二区成人 | www.久久久 | 在线一区 | 国产分类视频 | www.毛片| 在线观看av不卡 | 午夜电影福利 | 男人亚洲天堂 | 最近日韩中文字幕 | 美女福利视频一区 |