成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME

發布于 2024-12-11 13:12
瀏覽
0收藏

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

文章鏈接:https://arxiv.org/pdf/2412.06673

亮點分析

  • 本文提出了ILLUME,這是一種統一的多模態大語言模型(MLLM),能夠在單一的大語言模型(LLM)中無縫整合視覺理解與生成功能,并通過語義視覺分詞器和三階段訓練流程實現高效訓練。
  • 為了促進理解與生成能力的協同增強,本文提出了一種新穎的自增強多模態對齊機制,該機制訓練 MLLM 自行評估文本描述與自生成圖像之間的一致性。
  • ILLUME 在現有的統一多模態大語言模型中表現出色,并在多模態理解、生成和編輯的多種基準測試中展現出與專業模型相當的競爭力。

與SOTA的比較

各種視覺理解(藍色表示通用,綠色表示面向文檔)、生成(紅色)和編輯(灰色)基準的性能。ILLUME憑借最先進的工作取得了有競爭力的成果:

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

總結速覽

解決的問題

  • 多模態統一建模挑戰:如何在單一的大語言模型中無縫融合多模態理解和生成能力。
  • 數據效率問題:減少圖文對齊所需的大規模數據集,降低訓練成本。
  • 多模態協同增強不足:現有模型在多模態理解和生成能力的協同提升方面探索有限。

提出的方案

  • 統一的預測框架:通過統一的“下一個 token 預測”公式,實現多模態理解與生成的整合。
  • 視覺分詞器設計:采用嵌入語義信息的視覺分詞器,提升圖文對齊效率。
  • 漸進式多階段訓練:設計漸進式多階段訓練流程,將預訓練所需的數據量減少至 1500 萬,比傳統需求減少四倍以上。
  • 自增強多模態對齊機制:提出一種新穎的機制,模型通過自評一致性來提升圖文對齊效果,避免圖像生成中的不真實與不準確。

應用的技術

  • 視覺分詞器:結合語義信息,優化圖像表征質量。
  • 漸進式多階段訓練:通過分階段優化提升數據利用率。
  • 自增強對齊機制:讓模型通過自監督評估生成圖像與文本描述的一致性,強化理解與生成的雙向能力。

達到的效果

  • 數據效率提升:使用僅 1500 萬數據完成預訓練,效率顯著高于同類模型。
  • 性能優勢:在多模態理解、生成和編輯的多項基準測試中,與當前最先進的統一多模態模型和專業化模型競爭,表現出色甚至更優。
  • 協同增強:通過對理解和生成能力的協同提升,實現多模態任務的全面優化。

ILLUME

本節介紹 ILLUME 框架,這是一種用于視覺理解與生成的統一模型。具體而言,討論視覺分詞器、MLLM 以及訓練流程的設計細節。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

視覺分詞器

為了在 LLM 中處理輸入圖像,之前的視覺語言模型(VLM)如 LLaVA 利用視覺適配器將視覺編碼器的語義特征映射到文本空間,從而在僅使用 558K 數據樣本進行預訓練時實現了高效的圖文對齊。然而,在圖像生成領域,大多數現有基于自回歸的統一模型面臨著 LLM 預訓練所需的大規模數據問題(如下表 1 所示)。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

假設這一問題的根源在于現有視覺分詞器(如 VQGAN)提供的語義信息不足。這些分詞器主要基于圖像重建損失進行訓練,其視覺表示專注于量化的低級紋理特征,從而阻礙了 MLLM 的圖文對齊。


為此,將圖像量化為語義特征空間中的離散token。具體而言,如下圖 3(b) 所示,采用預訓練的視覺編碼器 UNIT 提取語義特征,并通過特征重建損失監督量化過程及碼本學習。相比基于圖像重建損失的分詞器,這種方法顯著加速了圖文對齊過程(如下圖 6 所示)。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

此外,由于量化發生在語義特征空間中,進一步利用 Stable Diffusion (SD) 模型將這些語義特征重建回具有高壓縮比(32×)的圖像。魯棒的 SD 模型有效補償了量化過程中未保留的低級細節,從而能夠從 MLLM 輸出的固定數量離散token生成更高分辨率的圖像。

MLLM

架構如上圖 3 所示,ILLUME 繼承了現有視覺語言模型(VLM)的架構,通過擴展 LLM 并添加視覺詞匯表來生成離散視覺token。在視覺理解方面,我們利用 UNIT 編碼器(也用于我們提出的視覺分詞器)從輸入圖像中提取語義特征,并通過視覺適配器將這些特征對齊到 LLM 的輸入空間。該設計緩解了矢量量化導致的信息丟失,這對于處理細粒度多模態理解任務至關重要。


在視覺生成方面,使用視覺分詞器將圖像轉換為離散索引,并在 LLM 的共享預測頭中,對兩種模態的每個位置的token預測進行監督。通過這種架構,ILLUME 采用通用的語言建模(LM)目標,以自回歸方式直接最大化每個多模態序列的似然。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

其中, 表示文本或視覺token, 表示 LLM 的參數。值得注意的是,由于我們的模型能夠同時處理輸入和輸出中的圖像,所提出的框架兼容交錯的圖文數據,從而支持任意多模態任務。

訓練過程MLLM 的訓練過程和數據組成如下圖 4 所示。訓練過程分為以下三個階段:

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

  • 階段 1:視覺嵌入初始化該階段的主要目標是為后續訓練步驟初始化良好的視覺表示。視覺適配器通過利用 LLaVA-Pretrain 的圖文對進行訓練,將視覺編碼器的視覺特征轉換為 LLM 的文本空間。同時,該階段還涉及新可學習嵌入的學習,僅更新視覺嵌入和 LLM 最終分類頭中的視覺部分。此外,我們引入了圖像重建任務,即監督 LLM 生成原始圖像,以便快速初始化 LLM 中的新增集成權重。
  • 階段 2:統一圖文對齊本階段重點在多模態數據上進行圖文對齊,以學習理解和生成任務。解凍 LLM 和視覺適配器,利用 1500 萬訓練數據進行訓練,包括文本數據、自然圖像和文檔的圖像標題數據、用于重建的圖像數據以及文本到圖像生成數據。
  • 階段 3:監督微調在預訓練之后,使用特定任務數據對整個模型進行訓練,以處理各種多模態理解和生成任務。為了獲得高分辨率圖像以應對如 OCR 和面向文檔任務等細粒度的多模態理解,采用 LLaVA-NeXT的圖像切片策略。本階段利用 中的指令調優數據進行視覺理解、高質量圖文對進行文本到圖像生成,以及各種混合模態生成數據。

推理在推理過程中,我們的模型采用下一個token預測的方法。對于視覺理解,遵循標準方法,從預測分布中逐步采樣token。對于圖像生成,采用無分類器引導(CFG),與先前工作[26, 54]一致。

自增強多模態對齊

開發統一的多模態大語言模型(MLLM)的主要目標有兩個:

  1. 能夠輕松擴展到各種視覺-語言任務;
  2. 表示空間的完全統一能通過更高效的多模態交互和對齊促進學習過程的效率提升。

因此,在構建 ILLUME 后,我們的首要任務是研究聯合改進這些能力是否能從每項任務所需知識的共性中獲益。然而,根據實驗結果(如下表 2 所示),盡管聯合訓練未對性能產生顯著負面影響,但現有基準測試并未表現出預期的理解與生成能力的互相增強。這表明,這些能力雖然可以共存而不互相影響,但要實現協同潛力可能需要進一步探索和更精細的方法。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

為此,本文提出了一種新穎的自增強多模態對齊方案,如下圖 5 所示,該方案通過自評估過程作為橋梁協同增強判別和生成能力。如果 MLLM 能在訓練中學習評估其自生成圖像的質量,它將從以下兩個方面獲益:

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

  • 生成促進判別:通過分析自生成的負樣本,MLLM 學會識別并理解自身的失敗,從而提高對圖像的準確解讀能力。此反思過程使模型能夠通過自我評估定位并改進其弱點,最終提升理解能力并減少誤判。
  • 判別促進生成:MLLM 可以利用其判別能力評估自生成圖像是否與文本對齊,并基于此分析進行必要的調整。這種能力確保模型在推理過程中更加謹慎和精確,避免生成圖像中的潛在錯誤。

受到上述動機的啟發,設計了以下三步的自增強多模態對齊方案:

  • 步驟 1:語料自生成模型從訓練集中一部分文本到圖像數據自生成圖像。
  • 步驟 2:生成評估根據特定標準(如對象準確性、數量、顏色、空間關系)評估圖像和文本之間的不一致性。在生成過程中,不僅包括評估分數(如好或壞),還包括對應的分析。為了獲得高質量數據,我們采用 GPT4-o 生成評估數據,評估模板如上圖 5(b) 所示。
  • 步驟 3:用于多模態對齊的監督微調(SFT)將評估數據重新格式化,如圖 5(c) 所示。具體來說,對于被token為“良好生成案例”的實例,僅進行第一輪評估。而對于“錯誤生成案例”,數據將被重新構建為兩輪對話,其中第一輪進行評估,第二輪進行改進。通過此方案,共生成 50K 條評估數據,并將其納入訓練過程的階段 3。

實驗

在多種多模態理解與生成基準上評估了所提出的 ILLUME,并進行了消融實驗以驗證設計選擇的合理性。

實現細節

在實驗中,選擇Vicuna-7B 作為基礎語言模型。理解任務中使用的視覺編碼器為UNIT。以下是模型的具體設置:

  • 輸入圖像分辨率
  • 階段 1 和階段 2 設置為224
  • 每張圖像為 LLM 生成256 個離散 tokens
  • 階段 3 采用image patchfy策略,以支持高分辨率圖像輸入,用于細粒度理解任務。最大切片數為9,基礎分辨率為448,每個切片的圖像下采樣為256 個 token
  • 圖像生成
  • 視覺分詞器的codebook大小為16384
  • 生成圖像的分辨率為512 × 512,對應256 個離散 tokens
  • 訓練配置
  • 訓練超參數如下表 5 所示。
  • 整個訓練過程耗時3 天,在包含32 個節點的集群上進行,每個節點配備8 個 Ascend NPU

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

評估設置

多模態理解

為了評估多模態理解能力,在兩類廣泛使用的基準上進行測試:

  • 通用基準:包括 POPE、MMBench、SEED、MME-P、MM-Vet、MMMU 和 AI2D。
  • 文檔相關基準:包括 VQA-text、ChartQA、DocVQA、InfoVQA  和 OCRBench。

多模態圖像生成

為評估 ILLUME 的多模態視覺生成能力,采用了以下基準:

  • MJHQ-30K:基于 Fréchet Inception Distance (FID) 指標,在 30K 生成圖像和 30K 高質量真實圖像之間進行比較,衡量生成質量與多樣性。
  • GenAI-bench 和 GenEval:具有挑戰性的文本到圖像生成基準,用于反映綜合生成能力。

多模態圖像編輯

為了評估 ILLUME 的多模態圖像編輯能力,使用了 Emu Edit基準,并報告以下指標:

  • CLIP-I 和 DINO 分數:衡量模型保留源圖像元素的能力。
  • CLIP-T 分數:衡量輸出圖像與目標文本描述之間的一致性。

與最新技術的對比

多模態理解

我們在多種多模態理解基準上的性能與以往最先進的理解模型(如 InstructBLIP、Qwen-VL-Chat、LLaVA-1.5、ShareGPT4V、LLaVA-NeXT 和 Emu3-Chat)以及統一模型(如 Unified-IO 2、Chameleon、LWM、Show-o、VILA-U 和 Janus)進行比較(下表 3)。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

  • ILLUME 在 12 個基準中的 10 個上獲得了第一或第二名。
  • 在 MMMU 和 SEED 基準上,ILLUME 分別比上一代最佳統一多模態模型 Janus 提高了 **25% 和 14%**。
  • 相較于 Emu3,ILLUME 在文檔相關基準上表現相當,但在幾乎所有通用基準上表現更佳,表明其在多模態理解任務上的顯著優勢。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

多模態圖像生成

在 MJHQ-30K、GenAI-bench 和 GenEval 基準上評估了 ILLUME 的生成能力(下表 4)。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

  • MJHQ30K 基準上,ILLUME 的 FID 分數為7.76,優于 Show-o 和 Janus 等高性能統一模型,表明其生成質量和多樣性更強。
  • GenAI-bench 基準上,ILLUME 的性能與基線方法相當。
  • GenEval 基準上,ILLUME 的整體準確率達到0.61,超越了之前的生成專用和統一模型,表現出卓越的綜合生成能力。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

多模態圖像編輯

在 Emu Edit 基準上,將 ILLUME 與以下圖像編輯模型對比:InstructPix2Pix、MagicBrush、Omni-Gen、Emu Edit 和 PUMA(下表 6)。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

  • 盡管 ILLUME 是一個統一模型,但其在圖像編輯任務中的表現與專用編輯模型相當,表明該框架的有效性。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

消融研究

視覺分詞器的設計選擇

為了研究語義信息是否在設計有效的視覺分詞器中起著關鍵作用,在兩種不同的監督下進行了視覺分詞器的比較分析:

  • 重建分詞器:使用了 VQGAN 實現,并通過圖像重建損失進行監督。
  • 語義分詞器:量化過程通過重建由 UNIT 提取的語義特征來進行監督。

在相同的設置下,使用這兩種token器訓練了 MLLM 模型,數據集為 2000 萬條文本到圖像的生成數據。正如下圖 6(左)所示,訓練損失曲線表明,具有語義信息的視覺分詞器顯著加速了 MLLM 訓練的收斂。為了進行圖像重建和細節補償,在我們的視覺分詞器中采用了擴散模型。為了確保公平比較,我們將 VQGAN 中的原始解碼器替換為擴散模型,以在 512 × 512 分辨率下重建圖像。圖 6(右)表明,在僅使用 2000 萬生成數據的情況下,重建token器的性能不盡人意,而語義token器則取得了可喜的成績。我們的研究結果證實,語義信息確實是適合 MLLMs 的視覺分詞器的關鍵因素。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

自增強多模態對齊方案的有效性

研究者們進行了一項消融分析,以驗證本文方法的有效性。基準方法在 Stage-3 訓練中采樣了 130 萬個數據點,以提高效率,而我們的方法還整合了由我們方案生成的評估數據。如下表 7 所示,盡管僅增加了 5 萬個數據點,在理解和生成基準測試中的性能都得到了提升。這一提升表明,教會 MLLM 自我評估不僅能使模型更準確地理解圖像,還能幫助防止圖像生成中的潛在錯誤。希望這一發現能激發更多關于判別能力和生成能力之間協同作用與泛化潛力的深入探索。

比Janus更強!15M數據實現顛覆性統一多模態大模型!華為諾亞提出ILLUME-AI.x社區

結論

ILLUME,一個統一的 MLLM(多模態大語言模型),該模型經過高效預訓練,并通過一種新穎的自增強多模態對齊方案進一步改進,表現出與現有統一 MLLM 在多個多模態基準上的競爭性,甚至更優的性能。展望未來,計劃在幾個關鍵領域進一步發展 ILLUME:

  1. 擴展能力:旨在擴展其能力,支持更多模態,如視頻、音頻和 3D 數據,以便在各個領域中實現更廣泛的應用。
  2. 設計更通用的視覺分詞器:計劃設計一種更加多功能的視覺分詞器,能夠支持圖像和視頻。此外,在本研究中的發現表明,將語義信息融入傳統設計良好的視覺分詞器具有巨大的潛力,使其更適合 MLLM。
  3. 進一步探索自增強策略:計劃通過引入更多認可的標準(如美學質量)進一步探索我們的自增強策略,從而更好地利用數據,并生成更符合人類偏好的內容。

這些未來的方向將顯著拓寬 ILLUME 的應用范圍和效果,為實現統一的、高效的“任何任務、任何模態” MLLM 奠定基礎。


本文轉自AI生成未來 ,作者:AI生成未來


原文鏈接:??https://mp.weixin.qq.com/s/4tAOBKX8K3v_g36yTnQZdA??

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 欧美乱淫视频 | 一级毛片视频 | 国产精品视频免费观看 | 日韩国产一区二区三区 | 久久久久久国产 | 免费观看av| 91在线免费观看 | 婷婷一级片 | 青青草精品| 亚洲大片在线观看 | 亚洲免费片 | 日韩中文字幕在线播放 | 久久国产视频网站 | 在线一级片 | 国产欧美日韩在线播放 | 丁香一区二区 | 亚洲国产精品va在线看黑人 | 国产区一区二区三区 | 99r在线| 一级电影免费看 | 欧美精品一二三 | 成人高潮片免费视频欧美 | 亚洲精品高清视频在线观看 | 久久33 | 色婷婷综合网 | 国产欧美日韩综合精品一 | 久久久久亚洲精品 | 一区二区日本 | 99影视 | 一区二区精品 | 久久国产一区 | 欧美日韩中文字幕 | 91精品国产乱码久久久久久久久 | 日韩免费一二三区 | 亚洲一区二区久久久 | 中文字幕精品一区久久久久 | 狠狠干在线 | 亚洲视频在线观看一区二区三区 | 中文成人无字幕乱码精品 | 中文一区二区视频 | 精品免费国产 |