成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

多模態LLM幻覺問題降低30%!業內首個“啄木鳥”免重訓方法誕生

開發 前端 人工智能
一個免重訓、即插即用的通用架構,直接從模型給出的錯誤文本下手,“倒推”出可能出現“幻覺”之處,然后與圖片確定事實,最終直接完成修正。

還在用指令微調解決多模態大模型的“幻覺”問題嗎?

比如下圖中模型將橙色柯基錯認為“紅狗”,還指出周圍還有幾條。

圖片圖片

現在,中科大的一項研究想到了一個全新辦法:

一個免重訓、即插即用的通用架構,直接從模型給出的錯誤文本下手,“倒推”出可能出現“幻覺”之處,然后與圖片確定事實,最終直接完成修正。

他們將這個方法命名為“啄木鳥”(Woodpecker)。

圖片圖片

就像這位所謂的“森林醫生”先找出樹木的蟲洞再吃掉里面的蟲子一樣,本文中所提出的“啄木鳥”也是多模態大模型們的“幻覺”醫生,能夠將問題先診斷出來再一一糾正。

結果是“醫術確實高明”,成功將:

(1)MiniGPT-4的準確性從54.67%提高到了85.33%;

(2)mPLUG Ow的準確性從62%提到了86.33%。

如下圖所示,各種難以檢測到的小對象、復雜的計數場景,它都能沒問題。

圖片圖片

那么,它具體是如何診斷的呢?

“啄木鳥法”治療多模態LLM幻覺

目前,業內對于大模型幻覺問題的解決辦法基本都是用特定數據進行指令微調。

比如說,一些多模態大模型(MLLM)在回答問題時總是傾向于肯定答案(eg. 面對一個光頭人物圖,問它頭發是什么顏色,張口就說“黑”),那么我們再喂給模型一些包含負樣本的數據,就能解決它“無中生有”的幻覺,遇到沒有的就說“no”。

除了指令微調,也有的會進行架構調整,反正都要重新訓練一個新的模型。

本文提出的“啄木鳥”框架,是業內第一個無需此操作就能解決“幻覺”的全新辦法。

它一共分為5個步驟,每一步都采用了清晰透明的設計方式,因此具備良好的可解釋性。

圖片圖片

具體而言:

第一步,關鍵概念提取。

指找出模型給出的答案中提到的主要對象,即最有可能解除“幻覺”的元素。

例如對于下圖,多模態大模型最開始可能描述圖中有一輛自行車停在一個垃圾桶旁邊,還說圖上有幾個人從垃圾桶旁邊走過。

圖片圖片

那么,我們就可以得到三個關鍵概念:自行車、垃圾桶和人。

第二步,問題構造。

指在獲取關鍵概念后,圍繞它們提出一些問題有助于檢驗“幻覺”所在的問題。

可主要分為對象層面和屬性層面,前者可以問“圖中有幾輛自行車?”,后者可問“垃圾桶位于什么位置?”。

在此,由于屬性問題比較依賴于上下文,作者也用了一些帶有上下文的例子來提示模型,以便提出的問題更有意義

第三步,視覺驗證。

指引用專家模型回答上步提出的所有問題,方便后續校正。

對于對象層面的問題,例如我們利用GroundingDINO來進行目標檢測,確定關鍵目標是否存在以及關鍵目標的數量。

對于屬性問題,則用BLIP-2來搞定。這類傳統VQA模型輸出答案的長度有限,"幻覺"問題更少。

第四步,視覺斷言生成。

簡單來說,就是基于于前兩步中獲得的問題以及對應的視覺信息,合成結構化的“視覺斷言”。

格式如下:

圖片圖片

最后,“幻覺”糾正。

即根據上步的總結比對模型原始的輸出,得出新的答案。

具體實施環節中,“啄木鳥”采用GPT-3.5-turbo來完成關鍵概念提取、提問和最后一步的糾正。

由于一些多模態模型的指令跟隨能力較弱,導致結果可能輸出無關文本(例如表情、特殊符號),再加上有時一些模型只輸出一個“是”或“否”,這讓實際的校正過程也面臨挑戰。

不過,我們兩個簡單措施就可以搞定:

(1)將模型回答的“是”或“否”與“啄木鳥”給出的答案組合起來,比如“是的,圖像中有一只狗”,就不怕模型原本只是給出一個簡單的“yes or no”逃過校正了。

(2)在校正過程中,將原始問題添加到LLM,以便LLM更好地掌握文本和任務要求。

效果驗證:幻覺減少30%

整個方法看起來非常好理解,效果如何呢?

在此,作者在POPE、MME和LLaVA-QA90數據集上進行了全面的定量和定性實驗。

基線模型選用這四個主流多模態大模型:

MiniGPT-4、mPLUG Owl、LLaVA和Otter。

最終,POPE數據集上的結果如下:

(w/Ours表示由“啄木鳥”校正的MLLM響應,x為未采用,對勾為采用)

可以看到,“啄木鳥”都能給這幾個模型帶來不同程度的提升,同時大幅降低模型回答“yes”的概率。

其中在隨機設定下,它給MiniGPT-4和mPLUG-Owl和在準確率指標上分別帶來了30.66%和24.33%的提升。

圖片圖片

在更全面的MME數據集上,“啄木鳥”也有效減少了多模態大模型在對象級和屬性級層面的“幻覺”,也就是某物是否存在、數量多少,以及它的位置和顏色。

比如LLaVA的顏色得分從78.33分大幅提升到155分。

圖片圖片

不過,位置方面的“幻覺”提升不是特別大,作者推測可能是VQA模型BLIP-2在位置推理方面的能力相對較弱等原因造成的。

為了更直接地衡量修正表現,更直接的方式是使用開放評測。

不同于以往將圖片轉譯后送入純文本GPT-4的做法,作者利用OpenAI最近開放的視覺接口,提出使用GPT-4V對修正前后的圖片描述直接對下列兩個維度進行打分:

(1)準確度:模型的答復相對于圖片內容是否準確;

(2)細節程度:模型答復的細節豐富度。 

在該實驗條件下,實驗結果如下表所示(滿分為10):

圖片圖片

結果表明經過“啄木鳥“修正后圖片描述的準確性有一定的提升,這說明該框架可以有效修正描述中幻視的部分。

另一方面,“啄木鳥“修正后引入的定位信息豐富了文本描述,提供了進一步的位置信息,從而提升了細節豐富度。

GPT-4V輔助的評測樣例如下圖所示:

圖片圖片

試玩

還有Demo供大家測試使用。

如下圖所示,上傳圖片并輸入請求,就可以得到修正前以及修正后的模型答復,以及供參考驗證的新圖片。

 

Woopecker論文地址:
https://arxiv.org/abs/2310.16045 Woopecker代碼地址:https://github.com/BradyFU/Woodpecker

責任編輯:武曉燕 來源: 量子位
相關推薦

2023-10-30 15:06:00

模型數據

2025-01-08 08:21:16

2024-12-18 18:57:58

2024-12-31 08:03:12

2024-11-14 13:05:12

2024-01-24 13:16:00

AI訓練

2024-01-11 16:24:12

人工智能RAG

2025-05-06 08:40:00

2024-01-15 06:15:00

模型數據

2023-10-27 09:47:22

模態框架

2025-05-08 06:00:00

AI幻覺AI人工智能

2024-12-16 07:00:00

2009-07-29 18:35:59

云計算IBMIT

2024-08-08 13:04:28

2024-01-03 13:37:00

模型數據

2025-04-28 12:28:27

2023-12-25 09:07:50

AI人工智能Ferret

2024-12-17 08:05:34

大型語言模型MetaAILLM

2025-02-28 10:15:00

3D模型編碼器
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 狠狠干2020 | 欧美理论 | 在线免费观看黄视频 | 日韩精品人成在线播放 | 一级毛片免费视频观看 | 精品一区二区三区免费毛片 | 九九久久精品 | 干干干操操操 | 中文字幕一区在线观看视频 | 中文字幕在线观看一区二区 | 精品无码久久久久久久动漫 | 欧美情趣视频 | 久久精品久久久 | 欧美成人在线免费 | 国产精品久久久久aaaa | 97免费视频在线观看 | 欧美日韩中文字幕在线播放 | 天天操夜夜操 | 91视频进入 | 插插宗合网 | 亚洲精品国产第一综合99久久 | 中文字幕在线一区二区三区 | 性高朝久久久久久久3小时 av一区二区三区四区 | 中文字幕 欧美 日韩 | 永久www成人看片 | 国产在线麻豆精品入口 | 黑人巨大精品欧美黑白配亚洲 | 亚洲午夜精品一区二区三区 | 亚洲欧美日韩久久久 | 久久不射电影网 | 久久亚洲经典 | 99精品国自产在线观看 | 女女百合av大片一区二区三区九县 | 欧美午夜精品 | 羞羞视频网站免费观看 | 亚洲成人免费视频在线 | 日本三级日产三级国产三级 | 欧美激情精品久久久久 | 亚洲日本免费 | 亚洲一级视频在线 | 老外黄色一级片 |