8.3K Stars!《多模態大語言模型綜述》重大升級
去年 6 月底,我們在 arXiv 上發布了業內首篇多模態大語言模型領域的綜述《A Survey on Multimodal Large Language Models》,系統性梳理了多模態大語言模型的進展和發展方向,目前論文引用 120+,開源 GitHub 項目獲得 8.3K Stars。自論文發布以來,我們收到了很多讀者非常寶貴的意見,感謝大家的支持!
- 論文鏈接:https://arxiv.org/pdf/2306.13549.pdf
- 項目鏈接(每日更新最新論文):https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models
去年以來,我們見證了以 GPT-4V 為代表的多模態大語言模型(Multimodal Large Language Model,MLLM)的飛速發展。為此我們對綜述進行了重大升級,幫助大家全面了解該領域的發展現狀以及潛在的發展方向。
MLLM 發展脈絡圖
MLLM 脫胎于近年來廣受關注的大語言模型(Large Language Model , LLM),在其原有的強大泛化和推理能力基礎上,進一步引入了多模態信息處理能力。相比于以往的多模態方法,例如以 CLIP 為代表的判別式,或以 OFA 為代表的生成式,新興的 MLLM 展現出一些典型的特質:
(1)模型大。MLLM 通常具有數十億的參數量,更多的參數量帶來更多的潛力;
(2)新的訓練范式。為了激活巨大參數量的潛力,MLLM 采用了多模態預訓練、多模態指令微調等新的訓練范式,與之匹配的是相應的數據集構造方式和評測方法等。
在這兩種特質的加持下,MLLM 涌現出一些以往多模態模型所不具備的能力,例如給定圖片進行 OCR?Free 的數學推理、給定圖片進行故事創作和理解表情包的深層含義等。
本綜述主要圍繞 MLLM 的基礎形式、拓展延伸以及相關研究課題進行展開,具體包括:
- MLLM 的基礎構成與相關概念,包括架構、訓練策略、數據和評測;
- MLLM 的拓展延伸,包括輸入輸出粒度、模態、語言和場景的支持;
- MLLM 的相關研究課題,包括多模態幻覺、多模態上下文學習(Multimodal In-Context Learning,M-ICL)、多模態思維鏈(Multimodal Chain of Thought,M-CoT)、LLM 輔助的視覺推理(LLM-Aided Visual Reasoning,LAVR)。
架構
對于多模態輸入-文本輸出的典型 MLLM,其架構一般包括編碼器、連接器以及 LLM。如要支持更多模態的輸出(如圖片、音頻、視頻),一般需要額外接入生成器,如下圖所示:
MLLM 架構圖
其中,模態編碼器負責將原始的信息(如圖片)編碼成特征,連接器則進一步將特征處理成LLM 易于理解的形式,即視覺 Token。LLM 則作為“大腦”綜合這些信息進行理解和推理,生成回答。目前,三者的參數量并不等同,以 Qwen-VL[1]為例,LLM 作為“大腦”參數量為 7.7B,約占總參數量的 80.2%,視覺編碼器次之(1.9B,約占 19.7%),而連接器參數量僅有 0.08B。
對于視覺編碼器而言,增大輸入圖片的分辨率是提升性能的有效方法。一種方式是直接提升分辨率,這種情況下需要放開視覺編碼器進行訓練以適應更高的分辨率,如 Qwen-VL[1]等。另一種方式是將大分辨率圖片切分成多個子圖,每個子圖以低分辨率送入視覺編碼器中,這樣可以間接提升輸入的分辨率,如 Monkey[2]等工作。
對于預訓練的 LLM,常用的包括 LLaMA[3]系列、Qwen[4]系列和 InternLM[5]系列等,前者主要支持英文,而后兩者中英雙語支持得更好。就性能影響而言,加大 LLM 的參數量可以帶來顯著的性能增益,如 LLaVA-NeXT[6]等工作在 7B/13B/34B 的 LLM 上進行實驗,發現提升LLM 大小可以帶來各 benchmark 上的顯著提升,在 34B 的模型上更涌現出 zero-shot 的中文能力。除了直接增大 LLM 參數量,近期火熱的 MoE 架構則提供了更高效實現的可能性,即通過稀疏計算的方式,在不增大實際計算參數量的前提下提高總的模型參數量。
相對前兩者來說,連接器的重要性略低。例如,MM1[7]通過實驗發現,連接器的類型不如視覺 token 數量(決定之后 LLM 可用的視覺信息)及圖片的分辨率(決定視覺編碼器的輸入信息量)重要。
數據與訓練
MLLM 的訓練大致可以劃分為預訓練階段、指令微調階段和對齊微調階段。預訓練階段主要通過大量配對數據將圖片信息對齊到 LLM 的表征空間,即讓 LLM 讀懂視覺 Token。指令微調階段則通過多樣化的各種類型的任務數據提升模型在下游任務上的性能,以及模型理解和服從指令的能力。對齊微調階段一般使用強化學習技術使模型對齊人類價值觀或某些特定需求(如更少幻覺)。
早期工作在第一階段主要使用粗粒度的圖文對數據,如 LAION-5B,這些數據主要來源于互聯網上的圖片及其附帶的文字說明,因此具有規模大(數 10 億規模)但噪聲多、文本短的特點,容易影響對齊的效果。后來的工作則探索使用更干凈、文本內容更豐富的數據做對齊。如 ShareGPT4V[8]使用 GPT-4V 生成的詳細描述來做更細粒度的對齊,在一定程度上緩解了對齊不充分的問題,獲得了更好的性能。但由于 GPT-4V 是收費的,這種類型的數據規模通常較小(數百萬規模)。此外,由于數據規模受限,其包含的世界知識也是有限的,比如是否能夠識別出圖像中的建筑為廣州塔。此類世界知識通常儲備于大規模的粗粒度圖文對中。
第二階段的微調數據一方面可以來源于各種任務的數據,如 VQA 數據、OCR 數據等,也可以來源于 GPT-4V 生成的數據,如問答對。雖然后者一般能夠生成更復雜、更多樣化的指令數據,但這種方式也顯著地增加了成本。值得一提的是,第二階段的訓練中一般還會混合部分純文本的對話數據,這類數據可以視為正則化的手段,保留 LLM 原有的能力與內嵌知識。
第三階段的數據主要是針對于回答的偏好數據。這類數據通常由人工標注收集,因而成本較高。近期出現一些工作使用自動化的方法對來自不同模型的回復進行偏好排序,如 Silkie[9]通過調用 GPT-4V 來收集偏好數據。
其他技術方向
除了提升模型的基礎能力(如支持的輸入/輸出形式、性能指標)外,還有一些有意思的問題以及待探索的方向。本綜述中主要介紹了多模態幻覺、多模態上下文學習(Multimodal In?Context Learning,M-ICL)、多模態思維鏈(Multimodal Chain of Thought,M-CoT)和 LLM 輔助的視覺推理(LLM-Aided Visual Reasoning,LAVR)等。
多模態幻覺的研究主要關注模型生成的回答與圖片內容不符的問題。視覺和文本本質上是異構的信息,完全對齊兩者本身就具有相當大的挑戰。增大圖像分辨率和提升訓練數據質量是降低多模態幻覺的兩種最直觀的方式,此外我們仍然需要在原理上探索多模態幻覺的成因和解法。例如,當前的視覺信息的 Token 化方法、多模態對齊的范式、多模態數據和 LLM 存儲知識的沖突等對多模態幻覺的影響仍需深入研究。
多模態上下文學習技術為少樣本學習方法,旨在使用少量的問答樣例提示模型,提升模型的few-shot 性能。提升性能的關鍵在于讓模型有效地關注上下文,并將內在的問題模式泛化到新的問題上。以 Flamingo[10]為代表的工作通過在圖文交錯的數據上訓練來提升模型關注上下文的能力。目前對于多模態上下文學習的研究還比較初步,有待進一步探索。
多模態思維鏈的基本思想是通過將復雜的問題分解為較簡單的子問題,然后分別解決并匯總。相較于純文本的推理,多模態的推理涉及更多的信息來源和更復雜的邏輯關系,因此要復雜得多。當前該方面的工作也比較少。
LLM 輔助的視覺推理方法探索如何利用 LLM 強大的內嵌知識與能力,并借助其他工具,設計各種視覺推理系統,解決各種現實問題。相比于通過端到端訓練獲得單一模型,這類方法一般關注如何通過免訓練的方式擴展和加強 LLM 的能力,從而構建一個綜合性的系統。
挑戰和未來方向
針對 MLLM 的研究現狀,我們進行了深入思考,將挑戰與可能的未來發展方向總結如下:
- 現有 MLLM 處理多模態長上下文的能力有限,導致模型在長視頻理解、圖文交錯內容理解等任務中面臨巨大挑戰。以 Gemini 1.5 Pro 為代表的 MLLM 正在掀起長視頻理解的浪潮,而多模態圖文交錯閱讀理解(即長文檔中既有圖像也有文本)則相對空白,很可能會成為接下來的研究熱點。
- MLLM 服從復雜指令的能力不足。例如,GPT-4V 可以理解復雜的指令來生成問答對甚至包含推理信息,但其他模型這方面的能力則明顯不足,仍有較大的提升空間。
- MLLM 的上下文學習和思維鏈研究依然處于初步階段,相關的能力也較弱,亟需相關底層機制以及能力提升的研究探索。
- 開發基于 MLLM 的智能體是一個研究熱點。要實現這類應用,需要全面提升模型的感知、推理和規劃能力。
- 安全問題。MLLM 容易受設計的惡意攻擊影響,生成有偏的或不良的回答。該方面的相關研究也仍然欠缺。
- 目前 MLLM 在訓練時通常都會解凍 LLM,雖然在訓練過程中也會加入部分單模態的文本訓練數據,但大規模的多模態和單模態數據共同訓練時究竟對彼此互有增益還是互相損害仍然缺乏系統深入的研究。
?
更詳細內容請閱讀
- 論文鏈接:https://arxiv.org/pdf/2306.13549.pdf
- 項目鏈接:https://github.com/BradyFU/Awesome-Multimodal-Large-Language-Models
本文轉自 AI生成未來 ,作者:AINLP
