成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一文看懂多模態視覺-語言大模型的架構演進

人工智能 新聞
本文回顧了多模態LLM (視覺-語言模型) 近一年來的模型架構演進,對其中有代表性的工作進行了精煉總結。

本文經自動駕駛之心公眾號授權轉載,轉載請聯系出處。

首先,推薦一篇啟發我很多的綜述和對應的項目地址(本文的封面圖也來自該綜述)

A Survey on Multimodal Large Language Models
arxiv.org/abs/2306.13549

Awesome-Multimodal-Large-Language-Models
github.com/BradyFU/Awesome-Multimodal-Large-Language-Models

這篇綜述一張圖總結了多模態LLM的典型架構:

圖片

BLIP

【2022.01發布】https://arxiv.org/abs/2201.12086

統一視覺-語言理解和生成,使用captioner+filter高效利用互聯網有噪數據

圖片

模型架構:

  • Image/text encoder: ITC loss對齊視覺和語言表征,基于ALBEF提出的momentum distillation
  • Image-grounded text encoder: ITM loss建模視覺-語言交互,區分positive/negative圖文對,使用hard negative mining挖掘更高相似度的負例優化模型
  • Image-grounded text decoder: LM loss實現基于圖像的文本解碼,將雙向self-attention替換為causal self-attention

圖片

BLIP的bootstrapping訓練過程:

圖片

BLIP-2

【2023.01發布】https://arxiv.org/abs/2301.12597

使用相對輕量的Q-Former連接視覺-語言模態,通過兩階段訓練:第1階段基于凍住的視覺編碼器,第2階段基于凍住的LLM

圖片

第1階段:同樣優化ITC/ITM/LM loss,使用不同的self-attention mask,query和text端共享self-attention參數,使得可學習的query embedding提取與text語義最相關的視覺表征;使用BERT-base初始化,32個768維的query作為信息瓶頸

  • ITC:計算每個query與text的相似度,取最大的;使用batch內negatives,不再使用momentum queue
  • ITM:對每個query與text的分類logits取平均,使用hard negatives mining挖掘難負例
  • LM:text token和frozen image encoder不能直接交互,要求query能提取有益的視覺特征

圖片

第2階段:可基于decoder-only/encoder-decoder LLM進行適配,FC層對齊維度

圖片

LLaVA

【2023.04發布】https://arxiv.org/abs/2304.08485

  1. 使用僅文本模態的GPT-4生成視覺-語言指令遵循數據,用于微調多模態LLM
  • 使用圖片的dense captions和bounding boxes作為prompt,可以生成對話、細節描述、復雜推理等指令
  1. CLIP ViT-L/14 + Vicuna,使用簡單的線性層進行映射
  • 更復雜的:Flamingo中gated cross-attention,BLIP-2中的Q-former

圖片圖片

  1. LLaVA模型的兩階段訓練
  • stage1. 預訓練特征對齊:凍住vision encoder和LLM,只訓練projection,學習一個兼容的visual tokenizer
  • stage2. 端到端微調:凍住vision encoder,在單輪/多輪對話數據上微調projection和LLM

MiniGPT-4

【2023.04發布】https://arxiv.org/abs/2304.10592

stage1. 預訓練:使用image-text pair微調linear projection layer,vision encoder和LLM保持凍住

stage2. 指令微調:指令格式為:###Human:###Assistant:

圖片

InstructBLIP

【2023.05發布】https://arxiv.org/abs/2305.06500

stage1. 預訓練:BLIP-2(使用image-text pairs進行兩階段訓練)

stage2. 指令微調:只微調instruction-aware Q-former,凍住vision encoder和LLM

支持FlanT5(encoder-decoder)和Vicuna(decoder-only)

圖片

Qwen-VL

【2023.08發布】https://arxiv.org/abs/2308.12966

支持中英雙語、多圖像輸入

Qwen-7B + OpenCLIP ViT-bigG,輸入圖像直接resize到視覺編碼器輸入

位置感知的VL adapter:使用基于Q-former的單層的cross-attention,將圖像特征維度壓縮到256,在query-key pairs中引入2D絕對位置編碼增強位置信息

圖像輸入:256-dim圖像特征

bounding box輸入輸出:(X_topleft, Y_topleft), (X_bottomright, Y_bottomright),…標記box所指內容

三階段訓練:

stage1. 預訓練:基于大規模、弱標注、網絡爬取的圖像-文本對,輸入分辨率224x224,凍住LLM,訓練ViT和Q-former,主要目的是模態對齊

stage2. 多任務預訓練:基于7種下游視覺-語言理解任務的高質量、細粒度標注數據訓練,輸入分辨率448x448,圖像/文本數據交錯,訓練整個模型

stage3. 指令微調:提升指令遵循和多輪對話能力,凍住ViT,訓練LLM和Q-former

圖片

Qwen-VL-Plus和Qwen-VL-Max提升了視覺推理能力、圖像細節的識別/提取/分析能力(尤其是文本導向的任務)、支持高分辨率和極端縱橫比的輸入圖像;在部分中文場景超過了GPT-4V和Gemini

InternLM-XComposer

【2023.09發布】https://arxiv.org/abs/2309.15112

交錯圖文構成:自動在輸出文本中插入合適的圖片

EVA-CLIP ViT + InternLM-7B + Q-former (將圖像特征壓縮到64個embedding)

兩階段訓練:

stage1. 預訓練:凍住ViT,訓練LLM和Q-former

stage2. 監督微調:包括多任務訓練和指令微調,凍住ViT和LLM,訓練Q-former,對LLM進行LoRA微調,增強指令遵循和圖文混排能力

圖片

Fuyu-8B

【2023.10發布】https://huggingface.co/adept/fuyu-8b

模型架構和訓練過程簡單,易于scaling;支持任意圖像分辨率;推理速度快

decoder-only的transformer,沒有專門的圖像編碼器;image patch直接線性映射到transformer第一層

圖片

LLaVA-1.5

【2023.10發布】https://arxiv.org/abs/2310.03744

仍使用MLP作為模態連接,突出了訓練的數據高效性

圖片

CogVLM

【2023.11發布】https://arxiv.org/abs/2311.03079

深度視覺-語言模態融合,而不影響LLM原有的語言能力:凍住LLM和ViT,在attention和FFN層訓練一份視覺專家模塊

圖片

CogAgent

【2023.12發布】https://arxiv.org/abs/2312.08914

針對GUI場景的多模態理解和導引,使用高分辨率-低分辨率雙編碼器,支持1120x1120的屏幕輸入

高分辨率分支使用更輕量的ViT,基于cross-attention將高分辨率圖像特征與LLM每層進行融合

圖片

VILA

【2023.12發布】https://arxiv.org/abs/2312.07533

探索了視覺-語言模型訓練的設計選擇:

  1. 預訓練階段凍住LLM雖然能取得較好的zero-shot性能,但上下文學習能力依賴對LLM的微調
  2. 圖文交錯的預訓練數據是有益的,只用圖文數據對效果不夠好
  3. 將純文本的指令微調數據加入SFT階段有助于緩解純文本任務的能力退化,同時也能夠增強視覺-語言任務的準確性

圖片

LLaVA-Next

【2024.01發布】https://llava-vl.github.io/blog/2024-01-30-llava-next/

相對于LLaVA-1.5,保持了極簡的設計和數據高效性:

  1. 提高了輸入圖像的分辨率 (4x),支持3種縱橫比:672x672, 336x1344, 1344x336
  2. 更好的視覺推理和OCR能力:更好的指令微調數據配比
  3. 更好的多場景視覺對話:更好的世界知識和邏輯推理
  4. 更高效的部署和推理:SGLang

動態高分辨率:視覺編碼器支持336x336的圖像輸入,對于672x672的圖像,按照{2,2}的grid split成4個圖像patch過encoder,downsample到336x336也過encoder,特征拼接作為visual tokens輸入到LLM中

圖片

收集高質量用戶數據,包括真實場景中反映用戶更廣泛意圖的指令數據,利用GPT-4V進行數據構造

多模態文檔/圖表數據,增強文檔OCR和圖表理解能力

圖片

InternLM-XComposer2

【2024.01發布】https://arxiv.org/abs/2401.16420

提出了新的模態對齊方法partial LoRA:只在image token上添加LoRA參數,保證預訓練語言知識的完整性,這樣一個更輕量的視覺編碼器同樣有效

OpenAI CLIP ViT-L/14 + InternLM2-7B + partial LoRA (rank=256)

圖片圖片

兩階段訓練:

stage1. 預訓練:凍住LLM,微調ViT和partial LoRA模塊,包括通用語義對齊(理解圖像基本內容)、世界知識對齊(進行復雜的知識推理)、視覺能力增強(OCR、物體定位、圖表理解)

stage2. 監督微調:微調整個模型,包括多任務訓練、自由形式圖文排布

InternLM-XComposer2-4KHD

2024.04發布了4KHD版本:https://arxiv.org/abs/2404.06512

支持動態分辨率(336px → 4K (3840x1600)):改進了patch division范式,保持訓練圖像原有的縱橫比,自動變化patch數目,基于336x336的ViT配置layout

動態圖像劃分:將輸入圖像resize and pad到336的整數倍寬高

結合圖像的global和local視角:global視角由輸入直接resize到336x336,使用sep token分隔兩種視角的token

圖像2D結構的換行符:可學習的\n token分隔圖像token行

圖片

Mini-Gemini

【2024.03發布】https://arxiv.org/abs/2403.18814

使用雙視覺編碼器提取低分辨率embedding作為query,高分辨率特征區域作為key/value,兩者之間做cross-attention,輸出挖掘的tokens作為prompt前綴,輸入到LLM做推理,外接圖像解碼器生成圖像(SDXL)

圖片

責任編輯:張燕妮 來源: 自動駕駛之心
相關推薦

2024-11-13 09:39:13

2025-03-25 09:06:11

2025-02-10 07:10:00

多模態embeddingsAI

2025-01-06 11:10:00

架構模型AI

2023-04-10 11:35:31

評估模型業務流程

2024-09-04 16:19:06

語言模型統計語言模型

2020-03-31 14:40:24

HashMap源碼Java

2023-11-08 08:21:52

MVPMVVMMVI

2023-11-21 08:37:09

2022-07-26 00:00:03

語言模型人工智能

2025-01-08 08:21:16

2025-01-17 13:30:00

模型AI視覺

2023-07-07 11:36:29

人工智能基礎模型

2024-05-17 16:02:00

2016-08-18 00:21:12

網絡爬蟲抓取網絡

2019-01-11 18:52:35

深度學習視覺技術人工智能

2024-08-12 12:30:27

2023-09-12 07:02:19

騰訊混元大模型

2021-08-02 06:56:19

TypeScript編程語言編譯器

2025-01-20 09:15:00

iOS 18.3蘋果iOS 18
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 美女一区 | 亚洲综合在线网 | 最近中文字幕在线视频1 | 操操日 | 亚洲高清视频在线 | 亚洲成人一区二区三区 | 午夜精品三区 | 国产精品夜夜夜一区二区三区尤 | 国产精品久久久久一区二区三区 | 国产成人免费视频网站视频社区 | 日韩在线免费 | 午夜久久久久久久久久一区二区 | 91素人 | 欧美视频一级 | 亚洲成人免费观看 | 亚洲一区不卡 | 亚洲午夜精品视频 | 狠狠爱综合 | 成人依人 | 日韩欧美精品一区 | www.久 | 久久久免费观看视频 | 欧美日韩一区在线 | www.国产 | 国内精品免费久久久久软件老师 | 久久91精品国产一区二区 | 一级在线视频 | 欧美久久久 | 国产一区二区三区在线 | 精品中文字幕一区 | 欧美成视频 | 欧美一区二区三区在线播放 | 欧美性成人 | 少妇精品久久久久久久久久 | 在线播放国产一区二区三区 | 日本一二三区在线观看 | 淫片专区| 久久精品一级 | 羞羞视频网站免费观看 | 欧美中文字幕在线观看 | 一区二区三区免费在线观看 |