成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

開源模型突破原生多模態大模型性能瓶頸,上海AI Lab代季峰團隊出品

人工智能 新聞
上海AI Lab代季峰老師團隊,提出了全新的原生多模態大模型Mono-InternVL。

原生多模態大模型性能瓶頸,迎來新突破!

上海AI Lab代季峰老師團隊,提出了全新的原生多模態大模型Mono-InternVL

與非原生模型相比,該模型首個單詞延遲最多降低67%,在多個評測數據集上均達到了SOTA水準。

圖片

與常見的采用CLIP等結構進行視覺編碼的模塊化多模態大模型不同,Mono-InternVL將視覺感知和多模態理解均集成到大語言模型中。

相比于現有多模態大模型,Mono-InternVL有以下技術亮點:

  • 開源原生多模態架構最優解:無需額外的視覺編碼器,通過內嵌視覺專家打通了一條從大語言模型到原生多模態模型擴展的新路徑,2B模型多模態能力優于7B參數的現有原生多模態模型,多個指標超越InternVL1.5。
  • 兼具視覺靈活性和部署高效性:支持高達2M像素輸入的動態圖像分辨率,在原生多模態架構中感知精度最高。相比于InternVL1.5,在部署框架上首個單詞延遲最多降低67%,整體吞吐量提高31%。

圖片

破解原生多模態大模型遺忘問題

現有的多模態大模型(MLLM)通常采用視覺編碼器-對齊模塊-語言模型的結構,將視覺編碼和語言解碼分別進行處理。

具體來說,這些模型通常通過將預訓練的視覺編碼器(例如CLIP)與大語言模型(LLM)結合來實現,即模塊化MLLM。

最近新興的Chameleon、EVE等原生MLLM,將視覺感知和多模態理解直接集成到一個LLM中,可以更方便地通過現有工具進行部署、具備更高的推理效率。

然而,由于原生MLLM缺乏視覺能力,視覺相關的訓練通常不可避免,但視覺預訓練過程中語言基座能力常常出現災難性遺忘問題,導致現有原生MLLM的性能仍顯著低于模塊化MLLM。

為此,Mono-InternVL提出了采用增量預訓練的方法,解決此前原生MLLM中的災難性遺忘問題。

因此,作者在預訓練的LLM中嵌入了專門服務于視覺建模的視覺專家,通過MoE的方式實現稀疏化的建模。

基于此,作者通過僅優化視覺參數空間來進行視覺預訓練,同時保留了語言基座的預訓練知識。

原生多模態結構

具體來說,Mono-InternVL 由視覺文本嵌入和多模態MoE結構兩部分組成:

  • 視覺和文本嵌入:與使用CLIP等視覺編碼器的模塊化 MLLM 相比,Mono-InternVL 通過patch embedding直接將圖像轉換為patch序列。文本嵌入模塊則直接使用LLM的分詞器。
  • 多模態MoE結構:Mono-InternVL 的核心是將視覺專家FFN嵌入到預訓練的 LLM 中。視覺FFN從預訓練LLM中的文本FFN初始化。由此不僅可以利用預訓練的 LLM 知識促進視覺預訓練,還能顯著緩解災難性遺忘問題。

圖片

內生視覺預訓練

作者提出內生視覺預訓練(EViP)方法,旨在通過在大規模噪聲數據和合成數據上進行預訓練來最大化Mono-InternVL的視覺能力。

EViP被設計為一個從基本視覺概念到復雜語義知識的逐步學習過程,包括三個階段:

  • 概念學習,用于掌握基本的視覺概念;
  • 語義學習,用于捕捉高層次語義知識,例如世界知識;
  • 對齊學習,用于將知識與下游任務對齊。

在視覺預訓練完成后,Mono-InternVL通過指令微調處理復雜的多模態任務。

在前兩個階段中保持預訓練LLM的參數固定,僅訓練視覺部分的嵌入模塊和視覺FFN,而在第三階段和指令微調中逐步放開LLM中的multi-head attention和文本FFN。

得益于這一架構和預訓練策略,Mono-InternVL的視覺可擴展性得到了充分釋放,隨著預訓練數據規模的增加,其下游性能持續提高。

圖片

原生多模態大模型性能大幅提升

作者基于InternLM2-1.8B開發了Mono-InternVL-2B模型,在16個多模態基準上進行了廣泛的實驗。

下圖展示了中英文OCR、問答、圖表解析等任務的可視化樣例,體現了Mono-InternVL的實際效果。

如圖,模型成功識別出了圖中的“諾貝爾物理學獎2024”標題,Hopfield、Hinton等人名,以及瑞典皇家科學院落款等文本。

圖片

對于動漫風格的圖片,模型識別出了形狀扭曲的NEC、PANASONIC等品牌名,并提供了細致生動的圖像描述。

圖片

在Grounding任務上,Mono-InternVL可以精準定位照片中的美短的坐標。

圖片

對于中文的手寫文本同樣具備不錯的識別能力。

圖片

在代碼生成任務上也表現較為出色。

圖片

數據上看,實驗結果也表明,1.8B激活參數的Mono-InternVL可以大幅超越此前的7B參數原生多模態模型EVE,平均提升15.5%

與最先進的模塊化MLLM InternVL-1.5相比,Mono-InternVL在6個多模態基準上表現更優。

圖片

通過LMDeploy的部署實驗表明,Mono-InternVL與模塊化模型InternVL-1.5相比,首個token延遲減少了67%,整體吞吐量提高31%。

圖片

消融實驗結果,也驗證了視覺專家和增量預訓練的有效性。

圖片

下游任務性能與預訓練數據規模的曲線圖表明,在三階段的EViP的幫助下,Mono-InternVL 的能力隨著數據規模增加而不斷提升。

圖片

作者可視化了不同層的注意力圖,展示了模型淺層部分所存在的視覺局部性、視覺文本交互較少等問題,為未來原生MLLM 的設計提供啟發。

圖片

作者簡介

本文的共同一作為羅根 (上海人工智能實驗室博士后研究員),楊學(上海人工智能實驗室青年研究員),竇文涵(清華大學本科生),王肇凱(上海交通大學&上海人工智能實驗室聯培博士生)

本文的通訊作者是朱錫洲,他的研究方向是視覺基礎模型和多模態基礎模型,代表作有 Deformable DETR、DCN v2等。

圖片

論文地址:https://arxiv.org/abs/2410.08202
項目主頁:https://internvl.github.io/blog/2024-10-10-Mono-InternVL/
推理代碼&模型鏈接:https://huggingface.co/OpenGVLab/Mono-InternVL-2B

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-10-21 13:20:00

視頻數據集

2025-03-13 09:47:29

2025-01-08 08:21:16

2024-06-17 18:04:38

2025-02-18 09:10:00

2025-02-27 13:00:00

2024-06-20 10:49:15

2024-03-06 09:00:00

大語言模型人工智能

2025-06-09 08:42:23

2025-01-15 13:40:00

2024-03-25 12:30:18

AI訓練開源

2023-09-28 08:23:18

AI模型

2025-06-18 09:06:00

2024-09-10 12:11:18

2024-01-22 13:59:00

模型訓練

2025-05-28 03:30:00

AI人工智能大數據

2025-06-18 09:03:07

2023-05-12 13:14:59

ChatGPTAI工具

2023-09-19 09:22:54

數據訓練
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品成人在线 | 久久九九免费 | 久久成人一区 | 羞羞视频免费在线观看 | 91久久精品国产 | 国产欧美一区二区三区久久人妖 | 欧美日韩一区二区三区在线观看 | 亚洲一区二区三区视频 | 亚洲精品中文字幕中文字幕 | 亚洲一区二区在线电影 | 久久国产成人精品国产成人亚洲 | www.日本在线 | 国产91网站在线观看 | a级黄色网| av中文字幕在线观看 | 免费在线观看成人 | 久久99视频精品 | 国内自拍偷拍 | 久久久久网站 | 男女视频在线观看免费 | 日韩视频中文字幕 | 成人一区二区三区在线 | av黄色在线 | 欧美久久一级特黄毛片 | 国产一区 在线视频 | 日韩免费视频 | 亚洲国产精品99久久久久久久久 | 欧美性生活一区二区三区 | 91色视频在线观看 | aaaa网站 | 99re热精品视频 | 男人的天堂亚洲 | 大学生a级毛片免费视频 | 国产真实精品久久二三区 | 久久1区 | 欧美一区免费 | 成人在线免费观看av | 亚洲欧美激情精品一区二区 | 一级片在线观看 | 精品视频在线观看 | 欧美激情va永久在线播放 |