2025首篇關于多模態大模型在富文本圖像理解上的全面研究綜述
文本豐富的圖像(如文檔、圖表、場景圖等)在現實場景中扮演著重要角色,準確理解這些圖像對于自動化信息提取和優化用戶交互至關重要。文本豐富圖像理解(Text-rich Image Understanding, TIU)領域涉及兩個核心能力:
- 感知(如文本檢測、識別)
- 理解(如信息抽取、視覺問答)
多模態大語言模型(MLLMs)的出現為文本豐富的圖像理解(TIU)領域帶來了新的維度,系統地分析了該領域 MLLMs的時間線、架構、訓練流程、數據集與基準測試。
TIU MLLMs時間線
1、模型架構
TIU MLLMs的框架通常包括三個核心組件:視覺編碼器、模態連接器和LLM解碼器。
- 視覺編碼器:負責將輸入圖像轉換為特征表示,分為OCR-free(如CLIP、ConvNeXt)和OCR-based(如LayoutLMv3)兩種方式。混合編碼器結合了兩者的優點。
現代LLMs的進化樹追溯了近年來語言模型的發展,并突出了其中一些最知名的模型。根據編碼器的分類,藍色分支代表OCR-free(無OCR),粉色分支代表OCR-based(基于OCR),綠色分支代表混合編碼器。
- 模態連接器:用于將視覺特征與語言特征對齊,常見的方法包括線性投影、多層感知機(MLP)、交叉注意力等。
- LLM解碼器:將對齊后的特征輸入LLM進行推理,生成最終答案。常用的LLM包括LLaMA系列、Qwen系列、Vicuna系列和InternLM系列。
2、訓練流程
MLLM的訓練分為三個階段:模態對齊、指令對齊和偏好對齊。
代表性主流多模態大語言模型(MLLMs)的總結,包括模型架構、訓練流程以及在TIU領域四個最受歡迎基準測試中的得分?!癙rivate”表示該MLLM使用了專有的大型模型。“?”表示結果是通過下載官方開源模型并在本地測試獲得的。
- 模態對齊:通過OCR數據預訓練模型,彌合視覺和語言模態之間的差距。任務包括文本識別、文本定位、圖表解析等。
- 指令對齊:通過指令微調(SFT)提升模型的多模態感知、跨模態推理能力和零樣本泛化能力。分為視覺-語義錨定、提示多樣化增強和零樣本泛化三個層次。
- 偏好對齊:優化模型輸出以符合人類價值觀和期望,如通過混合偏好優化(MPO)提升模型性能。
3、 數據集與基準測試
TIU任務的發展依賴于大量專門的數據集和標準化基準測試。這些數據集分為領域特定(如文檔、圖表、場景、表格、GUI)和綜合場景兩大類。
文本豐富圖像理解領域的代表性數據集和基準測試。每個數據集通常根據其內容、功能和用戶需求標記為訓練或測試用途。
例如:
- 文檔:DocVQA、InfoVQA、DocGenome等。
- 圖表:ChartQA、PlotQA、ChartBench等。
- 場景:TextCaps、TextVQA、ICDAR系列等。
- 表格:TableQA、WikiTableQuestions、TableVQA-Bench等。
- 綜合:OCRbench、Seed-bench-2-plus、MMDocBench等。
https://arxiv.org/pdf/2502.16586
Multimodal Large Language Models for Text-rich Image Understanding: AComprehensive Review
本文轉載自??PaperAgent??
贊
收藏
回復
分享
微博
QQ
微信
舉報

回復
相關推薦