成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

85倍速度碾壓:蘋果開源FastVLM,能在iPhone直接運行的視覺語言模型

人工智能 新聞
研究者提出了一種新型混合視覺編碼器 FastViTHD,其專為在處理高分辨率圖像時提升 VLM 效率而設計,并以此為骨干網絡,通過視覺指令微調得到 FastVLM。

當你用蘋果手機隨手拍圖問 AI:「這是什么?」,背后的 FastVLM 模型正在默默解碼。

最近,蘋果開源了一個能在 iPhone 上直接運行的高效視覺語言模型 ——FastVLM(Fast  Vision Language Model)。

代碼倉庫中還包括一個基于 MLX 框架的 iOS/macOS 演示應用,優化了在蘋果設備上的運行性能。

圖片圖片

看這個 demo,反應速度是不是反應非常「Fast」!這就是 FastVLM 的獨特之處。

相較于傳統模型,FastVLM 模型專門注重于解決體積、速度這兩大問題,速度快到相對同類模型,首個 token 輸出速度提升 85 倍。

該模型引入了一種新型混合視覺編碼器 FastViTHD,融合了卷積層和 Transformer 模塊,配合多尺度池化和下采樣技術,把圖片處理所需的「視覺 token」數量砍到極低 —— 比傳統 ViT 少 16 倍,比 FastViT 少 4 倍。它以卓越的速度和兼容性,極大地提升了 AI 與圖像之間的用戶體驗能力。

FastVLM 模型不僅可以用于給模型自動生成陳述、回答「這張圖是什么」的問題、分析圖中的數據或對象等途徑,還兼容主流 LLM 并輕松適配 iOS/Mac 生態,特別適合落地在邊緣設備、端側 AI 應用和實時圖文任務場景。

目前,FastVLM 模型主要推出 0.5B、1.5B、7B 三個不同參數量級的版本,每個版本均有 stage2 和 stage3 兩階段微調權重,用戶可以根據自身需求靈活選擇。

蘋果團隊在發布的論文中詳細闡述了更加具體的技術細節和優化路徑。

image.png

  • 論文標題: FastVLM: Efficient Vision Encoding for Vision Language Models 
  • 論文地址:https://www.arxiv.org/abs/2412.13303

研究背景

視覺語言模型(Vision-Language Models, VLMs)是一類能夠同時理解圖像和文本信息的多模態模型。VLMs 通常通過一個投影層(也稱連接模塊)將來自預訓練視覺骨干網絡的視覺 token 輸入到一個預訓練的 LLM 中。

此前的研究已經探討了視覺骨干網絡、適配器(adapter)以及通常為解碼器結構的 LLM 這三大組件的訓練和微調策略。

已有多項研究指出,圖像分辨率是影響 VLM 性能的關鍵因素,尤其在面對文本密集或圖表密集的數據時表現尤為明顯。然而,提升圖像分辨率也帶來了若干挑戰。

首先,許多預訓練視覺編碼器在設計時并不支持高分辨率圖像輸入,因為這會顯著降低預訓練效率。

為了解決這一問題,一種方法是持續對視覺骨干進行預訓練,使其適應高分辨率圖像;另一種則是采用圖像分塊策略(tiling strategies),如 Sphinx、S2 和 AnyRes,將圖像劃分為多個子區域,并由視覺骨干分別處理各個子區域。

這類方法特別適用于基于視覺 Transformer(ViT)的模型架構,因為 ViT 通常不支持可變輸入分辨率。

另一個挑戰來自于高分辨率推理時的運行時計算成本。無論是單次高分辨率推理,還是在較低分辨率下多次推理(即采用切片策略),在生成視覺 token 時都存在顯著延遲。

此外,高分辨率圖像本身生成的 token 數量更多,這會進一步增加 LLM 的預填充時間(prefilling time,即 LLM 對包括視覺 token 在內的所有上下文 token 進行前向計算的時間),從而整體拉長初始輸出時間(time-to-first-token, TTFT),即視覺編碼器延遲與語言模型前填充時間之和。

本研究以 VLM 的設備端部署為動力,從運行時效率的角度出發,對其設計和訓練進行系統性研究。我們重點研究圖像分辨率提升對優化空間的影響,目標是改進精度 - 延遲之間的權衡,其中延遲包括視覺編碼器的推理時間和 LLM 的前填充時間。

研究者通過在不同的 LLM 規模與圖像分辨率下的大量實驗證明,在特定的視覺骨干條件下,可以建立一條帕累托最優曲線(Pareto optimal curve),展示在限定運行時間預算(TTFT)內,不同的圖像分辨率和語言模型規模組合能達到的最佳準確率。

研究者首先探索了一種混合卷積 - Transformer 架構 FastViT(預訓練于 MobileCLIP)作為 VLM 視覺骨干的潛力。

實驗證明,該混合骨干在生成視覺 token 方面的速度是標準 ViT 模型的四倍以上,同時基于多尺度視覺特征還實現了更高的整體 VLM 準確性。然而,若目標主要是高分辨率 VLM(而非如 MobileCLIP 那樣僅關注嵌入生成),則該架構仍有進一步優化空間。

為此,研究者提出了一種新型混合視覺編碼器 FastViTHD,其專為在處理高分辨率圖像時提升 VLM 效率而設計,并以此為骨干網絡,通過視覺指令微調得到 FastVLM。

在不同輸入圖像分辨率和語言模型規模下,FastVLM 在準確率與延遲的權衡上均顯著優于基于 ViT、卷積編碼器及我們先前提出的混合結構 FastViT 的 VLM 方法。

特別地,相比于運行在最高分辨率(1152×1152)的 LLaVa-OneVision,FastVLM 在相同 0.5B LLM 條件下達到了可比的性能,同時擁有快 85 倍的 TTFT 和小 3.4 倍的視覺編碼器規模。

模型架構

研究者首先探討了將 FastViT 混合視覺編碼器應用于  VLM 中的潛力,隨后提出若干架構優化策略以提升 VLM 任務的整體表現。

在此基礎上,研究者提出 FastViT-HD—— 一款專為高分辨率視覺 - 語言處理任務量身定制的創新型混合視覺編碼器,兼具高效率與高性能特點。

通過大量消融實驗,研究者全面驗證了 FastViT-HD 在多種大型語言模型 (LLM) 架構和不同圖像分辨率條件下,相比原始 FastViT 及現有方法所展現的顯著性能優勢。

如圖 2 所示,展示了 FastVLM 與 FastViT-HD 的整體架構。所有實驗均使用與 LLaVA-1.5 相同的訓練配置,并采用 Vicuna-7B 作為語言解碼器,除非特別說明。

image.png

FastViT 作為 VLM 圖像編碼器

典型的 VLM (如 LLaVA)包含三個核心組件:圖像編碼器(image encoder)、視覺 - 語言映射模塊(vision-language projector)以及大型語言模型(LLM)。

VLM 系統的性能及運行效率高度依賴其視覺主干網絡(vision backbone)。在高分辨率下編碼圖像對于在多種 VLM 基準任務中取得良好表現尤其關鍵,特別是在文本密集型任務上。因此,支持可擴展分辨率的視覺編碼器對 VLM 尤為重要。

研究者發現,混合視覺編碼器(由卷積層與 Transformer 塊組成)是 VLM 極為理想的選擇,其卷積部分支持原生分辨率縮放,而 Transformer 模塊則進一步提煉出高質量的視覺 token 以供 LLM 使用。

實驗使用了一個在 CLIP 上預訓練過的混合視覺編碼器 ——MobileCLIP 提出的 MCi2 編碼器。該編碼器擁有 35.7M 參數,在 DataCompDR 數據集上預訓練,架構基于 FastViT。本文后續均將該編碼器簡稱為「FastViT」。

然而,正如表 1 所示,若僅在其 CLIP 預訓練分辨率(256×256)下使用 FastViT,其 VLM 表現并不理想。

image.png

FastViT 的主要優勢在于其圖像分辨率縮放所具有的高效性 —— 相比采用 patch size 為 14 的 ViT 架構,其生成的 token 數量減少了 5.2 倍。

這樣的 token 大幅裁剪顯著提升了 VLM 的運行效率,因為 Transformer 解碼器的預填充時間和首個 token 的輸出時間(time-to-first-token)大大降低。

當將 FastViT 輸入分辨率擴展至 768×768 時,其生成的視覺 token 數量與 ViT-L/14 在 336×336 分辨率下基本持平,但在多個 VLM 基準測試中取得了更優的性能。

這種性能差距在文本密集型任務上尤為明顯,例如 TextVQA 和 DocVQA,即使兩種架構生成的 visual token 數量相同。

此外,即便在高分辨率下 token 數量持平,FastViT 憑借其高效的卷積模塊,整體圖像編碼時間依然更短。

1、多尺度特征(Multi-Scale Features)

典型的卷積或混合架構通常將計算過程劃分為 4 個階段,每個階段之間包含一個下采樣操作。VLM 系統一般使用倒數第二層輸出的特征,但網絡前幾層所提取的信息往往具有不同的粒度。結合多個尺度的特征不僅可提升模型表達能力,也能補強倒數第二層中的高層語義信息,這一設計在目標檢測中尤為常見。

研究者在兩個設計方案之間進行了消融對比,用于從不同階段匯聚特征:均值池化(AvgPooling)與二維深度可分離卷積(2D depthwise convolution)。

如表 2 所示,采用深度可分卷積在性能上更具優勢。除多尺度特征外,研究者還在連接器設計(connector design)上進行了多種嘗試(詳見補充材料)。這些結構性模型改進對于使用分層主干的架構(如 ConvNeXt 與 FastViT)特別有效。

image.png

FastViT-HD:面向 VLM 的高分辨率圖像編碼器

在引入上述改進后,FastViT 在參數量比 ViT-L/14 小 8.7 倍的情況下已具備良好性能。然而,已有研究表明,擴大圖像編碼器的規模有助于增強其泛化能力。

混合架構中,常見的做法是同時擴展第 3、4 階段中的自注意力層數量和寬度(如 ViTamin 所采用的方式),但我們發現在 FastViT 上簡單擴展這些層數并非最優方案(詳見圖 3),甚至在速度上不如 ConvNeXT-L。

image.png

為避免額外的自注意力層帶來的性能負擔,研究者在結構中加入一個額外階段,并在其前添加了下采樣層。在該結構中,自注意力層所處理的特征圖尺寸已經被以 1/32 比例降采樣(相比 ViTamin 等常見混合模型的 1/16),最深的 MLP 層甚至處理降采樣達 1/64 的張量。

此設計顯著降低了圖像編碼的延遲,同時為計算密集型的 LLM 解碼器減少了最多 4 倍的視覺 token,從而顯著縮短首 token 輸出時間(TTFT)。研究者將該架構命名為 FastViT-HD。

FastViT-HD 由五個階段組成。前三階段使用 RepMixer 模塊,后兩階段則采用多頭自注意力(Multi-Headed Self-Attention)模塊。

各階段的深度設定為 [2, 12, 24, 4, 2],嵌入維度為 [96, 192, 384, 768, 1536]。ConvFFN 模塊的 MLP 擴展倍率為 4.0。整體參數量為 125.1M,為 MobileCLIP 系列中最大 FastViT 變體的 3.5 倍,但依然小于多數主流 ViT 架構。

研究者采用 CLIP 的預訓練設置,使用 DataComp-DR-1B 進行預訓練后,再對該模型進行 FastVLM 訓練。

如表 3 所示,盡管 FastViT-HD 的參數量比 ViT-L/14 小 2.4 倍,且運行速度快 6.9 倍,但在 38 項多模態零樣本任務中的平均表現相當。相比另一種專為 VLM 構造的混合模型 ViTamin,FastViT-HD 參數量小 2.7 倍,推理速度快 5.6 倍,檢索性能更優。

image.png

表 4 比較了 FastViT-HD 與其他 CLIP - 預訓練層次型主干網絡(如 ConvNeXT-L 和 XXL)在 LLaVA-1.5 訓練后的多模態任務表現。盡管 FastViT-HD 的參數量僅為 ConvNeXT-XXL 的 1/6.8、速度提升達 3.3 倍,其性能仍然相當。

image.png

2、視覺編碼器與語言解碼器的協同作用

在 VLM 中,性能與延遲之間的權衡受到多個因素的影響。

一方面,其整體性能依賴于:(1) 輸入圖像分辨率、(2) 輸出 tokens 的數量與質量、(3) LLM 的建模能力。

另一方面,其總延遲(特別是首 token 時間,TTFT)由圖像編碼延遲和 LLM 預填充時間組成,后者又受到 token 數量和 LLM 規模的共同影響。

鑒于 VLM 優化空間的高度復雜化,針對視覺編碼器最優性的任何結論都須在多組輸入分辨率與 LLM 配對下加以驗證。我們在此從實證角度比較 FastViT-HD 相較 FastViT 的最優性。研究者測試三種 LLM(Qwen2-0.5B/1.5B/7B),并在不同輸入分辨率下進行 LLaVA-1.5 訓練與視覺指令調優,然后在多個任務上評估結果,結果見圖 4。

image.png

首先,圖 4 中的帕累托最優曲線(Pareto-optimal curve)表明,在預算固定的情況下(如運行時間 TTFT),最佳性能對應的編碼器 - LLM 組合是動態變化的。

例如,將高分辨率圖像輸入配備小規模 LLM 并不理想,因為小模型無法有效利用過多 token,同時,TTFT 反而會因視覺編碼延遲增大(詳見圖 5)。

image.png

其次,FastViT-HD 遍歷 (分辨率,LLM) 所形成的帕累托最優曲線明顯優于 FastViT —— 在固定延遲預算下平均性能提升超過 2.5 個點;相同時序目標下可加速約 3 倍。

值得注意的是,在此前已有結論表明,基于 FastViT 的 VLM 已超越 ViT 類方法,而 FastViT-HD 在此基礎上進一步大幅提升。

3、靜態與動態輸入分辨率

在調整輸入分辨率時,存在兩種策略:(1) 直接更改模型的輸入分辨率;(2) 將圖像劃分成 tile 塊,模型輸入設為 tile 尺寸。

后者屬于「AnyRes」策略,主要用于讓 ViT 能處理高分辨率圖像。然而 FastViT-HD 是專為高分辨率推理效率而設計,因此我們對這兩種策略的效率進行了對比分析。

圖 6 顯示:若直接將輸入分辨率設定為目標分辨率,則 VLM 在準確率與延遲之間獲得最佳平衡。僅在極高輸入分辨率(如 1536×1536)時,動態輸入才顯現優勢,此時瓶頸主要表現為設備上的內存帶寬。

image.png

一旦使用動態策略,tile 數量越少的設定能獲得更好的精度 - 延遲表現。隨著硬件發展與內存帶寬提升,FastVLM 在無需 tile 拆分的前提下實現更高分辨率處理將成為可行方向。

4、與 token 剪枝及下采樣方法的比較

研究者進一步將不同輸入分辨率下的 FastViT-HD 與經典的 token 剪枝方法進行對比。如表 5 所示,采用層次化主干網絡的 VLM 在精度 - 延遲權衡上明顯優于基于等維(isotropic)ViT 架構并借助 token 剪枝優化的方法。在不使用剪枝方法、僅利用低分辨率訓練的前提下,FastViT-HD 可將視覺 token 數降至僅 16 個的水平,且性能優于近期多個 token 剪枝方案。

有趣的是,即便是當前最先進的 token 剪枝方法(如所提出的 [7, 28, 29, 80]),在 256×256 分辨率下,整體表現亦不如 FastViT-HD。

更多詳細內容請參見原論文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-11-11 10:12:00

模型圖像

2012-10-30 14:08:59

Titan超級計算機NVIDIA

2020-11-11 16:46:35

蘋果macOS操作系統

2024-10-21 08:24:29

Florence-2視覺語言模型VLM

2009-03-29 09:47:24

蘋果Iphone移動OS

2022-02-13 20:31:26

SpringBootjarmanifests

2023-08-07 06:19:54

人工智能

2025-06-11 14:39:50

AILLMMistral

2020-05-07 16:30:32

Spring BootJava

2024-11-26 08:36:56

SpringJar機制

2024-07-22 09:00:00

2024-05-17 08:33:33

視覺語言模型

2009-02-25 08:47:42

MacSafari4

2023-04-04 22:23:09

2023-11-30 08:16:19

SpringjarTomcat

2024-04-03 09:01:34

SpringTomcat容器

2024-04-07 00:00:00

服務器瀏覽器AI

2025-05-19 08:37:00

2024-01-19 13:41:00

AI模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 最新国产精品视频 | 91在线视频观看 | 免费一级黄色电影 | 91超碰在线观看 | 欧美精品久久久久 | 精品久久久久久久久久久久 | 99re视频在线免费观看 | 久久久久国产精品 | 日韩高清国产一区在线 | 日韩精品在线一区二区 | 久久国产精品视频 | 欧美日产国产成人免费图片 | 精品网 | 天天操 天天操 | 亚洲视频区 | 久久久久国产精品一区二区 | 一级黄色片一级黄色片 | 久久性色| 91久久久久久久久久久 | 国产99久久 | 犬夜叉在线观看 | 中文字幕 国产精品 | 亚洲a视频| 欧美精品中文字幕久久二区 | 成人午夜精品一区二区三区 | 91欧美| 成人国产网站 | 国产美女自拍视频 | 欧美日韩国产综合在线 | 亚洲欧美视频一区 | 日韩一区欧美一区 | 欧美黄色一区 | 九九热精品在线视频 | 久久久久免费精品国产小说色大师 | 日韩中文字幕视频在线 | 国产视频一区二区在线观看 | 久久综合入口 | 久久不卡日韩美女 | 午夜精品在线观看 | 成人午夜视频在线观看 | 亚洲一区二区三区免费 |