成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

UniToken:多模態AI的“全能選手”,一次編碼搞定圖文理解與圖像生成!

人工智能 新聞
復旦大學和美團的研究者們提出了UniToken——一種創新的統一視覺編碼方案,在一個框架內兼顧了圖文理解與圖像生成任務,并在多個權威評測中取得了領先的性能表現。

首次在統一框架內實現理解與生成的“雙優表現”,打破了多模態統一建模的僵局!

復旦大學和美團的研究者們提出了UniToken——一種創新的統一視覺編碼方案,在一個框架內兼顧了圖文理解與圖像生成任務,并在多個權威評測中取得了領先的性能表現。

UniToken通過融合連續和離散視覺表征,有效緩解了以往方法中“任務干擾”和“表示割裂”的問題,為多模態統一建模提供了新的范式。

圖片

為了便于社區內研究者們復現與進一步開發,UniToken團隊已將代碼與模型全部開源。

圖片

任務背景:統一建模的挑戰

在傳統圖文理解或圖像生成模型中,其視覺編碼的底層特性差異較大。

譬如圖文理解模型(如LLaVA、Qwen-VL等)要求從圖像中抽取高層語義,從而進一步結合文本進行協同理解;而圖像生成模型(如DALL-E、Stable Diffusion等)則要求保留充分的底層細節以高保真圖像的生成。

由此,開發理解生成一體化的多模態大模型面臨著以下幾大難題:

視覺編碼割裂:理解任務偏好具有高層語義的連續視覺特征(如CLIP),而生成任務依賴保留底層細節的離散視覺特征(如VQ-GAN編碼的codebook);

聯合訓練干擾:理解與生成任務差異而帶來的沖突性使得在統一模型中訓練時難以兼顧兩個任務的性能,存在“一個優化,另一個退化”的現象。

為了應對上述挑戰,領域內的相關工作通常采取兩類范式:以VILA-U等為代表的工作通過結合圖像重建與圖文對比學習的訓練目標,來提升離散視覺編碼的語義豐富度;以Janus等為代表的工作通過為理解和生成任務分別定制相應的視覺編碼器與預測頭,來實現兩個任務之間的解耦。

然而,前者在理解任務上目前依舊難以與連續視覺編碼驅動的多模態大模型匹敵;后者則在應對更復雜的多模任務(例如多輪圖像編輯等)時面臨嚴重的上下文切換開銷及單邊信息缺失等問題。

UniToken:統一視覺表示,融合兩種世界

核心設計:連續+離散雙編碼器

圖片

不同于Janus的多任務解耦的設計思路,UniToken為所有下游任務均提供一套完備的視覺信息,促使多模態大模型以指令驅動的形式從中吸收相應的知識。

具體而言,UniToken采取統一的雙邊視覺編碼器,其中將VQ-GAN的離散編碼與SigLIP的連續表征以下述方式進行拼接,從而得到一套兼備高層語義與底層細節的視覺編碼:

[BOS][BOI]{離散圖像token}[SEP]{連續圖像embedding}[EOI]{文本}[EOS]

多階段訓練策略

為了協調理解與生成任務的特性,UniToken采用三階段訓練流程:

階段一:視覺語義空間對齊:

基于Chameleon作為基座,本階段旨在為LLM接入SigLIP的連續視覺編碼。為此,在訓練時凍結LLM,僅訓練SigLIP ViT和Adapter,使其輸出與語言空間對齊。

階段二:多任務聯合訓練:

基于第一階段對齊后的雙邊編碼器所提供的完備視覺信息,本階段在大規模圖文理解與圖像生成數據集上聯合訓練,通過控制數據配比(10M:10M)以均衡提升模型理解與生成任務的性能。

階段三:指令強化微調:

通過測試發現,第二階段訓練后的模型在指令跟隨、布局圖像生成等方面的表現均有待加強,故在本階段進一步引入高質量多模態對話(423K)與精細化圖像生成數據(100K),進一步增強模型對復雜指令的跟隨能力。

細粒度視覺增強

得益于保存了雙邊視覺編碼的完備性,UniToken可無縫銜接現有的細粒度視覺增強技術。

具體而言,UniToken在連續視覺編碼側引入兩項增強策略:

AnyRes:將高分辨率圖像劃分為多個子圖,分別提取特征后進行相應空間位置的拼接,以提升對圖像的細粒度感知;

ViT端到端微調:在模型的全訓練流程中,動態微調連續視覺編碼器的權重,結合精細的學習率控制策略以避免模型崩潰,進而適應廣泛的任務場景。

實驗結果:超越SOTA,多模態統一的“優等生”

在多個主流多模態基準(圖文理解+圖像生成)上,UniToken均取得了媲美甚至領先于領域內專用模型的性能:

圖片圖片

圖片圖片

與此同時,研究者們對于訓練策略及視覺編碼的影響進行了進一步深入的消融分析:

圖片

  • 在大規模數據場景下(>15M),1:1的理解+生成數據比例能夠兼顧理解與生成任務的性能

圖片

  • 在應對理解與生成的任務沖突時,統一的連續+離散的視覺編碼相較于僅采用離散編碼的方案具有較強的魯棒性。

總結:邁向通用理解生成一體化的多模態大模型

從發展趨勢上來看,目前圖文理解模型在通用性上遠遠領先于圖像生成模型。

而Gemini-2.0-Flash與GPT-4o在指令跟隨的圖像生成方面的驚艷表現,帶來了通用圖像生成模型未來的曙光。

在這樣的時代背景下,UniToken僅是初步的嘗試,而其信息完備的特性也為進一步挖掘其更深層次的潛力提供了更多信心:

模型規模擴展:借助更大的語言模型,進一步探索統一模型在理解與生成上的“涌現能力”;

數據規模擴展:引入更大規模的訓練數據(如Janus-Pro使用的近2億樣本),推動模型性能極限;

任務類型擴展:從傳統的理解與生成拓展至圖像編輯、故事生成等圖文交錯的任務,追逐通用生成能力的上限。

論文鏈接:https://arxiv.org/pdf/2504.04423

代碼地址:https://github.com/SxJyJay/UniToken

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-05-20 13:02:23

2024-10-22 13:33:48

2021-01-08 05:22:47

Spark動態優化

2017-08-11 13:55:13

數據庫水平切分架構

2025-03-13 10:18:42

2024-04-26 10:12:38

混合訓練AI集群

2024-07-04 10:13:18

2017-06-12 11:09:56

計數架構數據庫

2022-09-08 08:08:16

AI模態圖像Transforme

2009-08-11 09:29:16

刀片服務器

2025-05-12 08:50:00

2025-06-11 02:13:00

ChromeAI多模態

2024-12-16 16:10:15

2017-07-11 16:44:04

數據庫水平切分架構

2022-10-27 16:12:58

AI模型

2024-01-30 13:17:00

AI數據

2024-10-21 11:05:00

2023-10-12 13:05:00

谷歌AI
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩精品久久一区二区三区 | 欧美色综合一区二区三区 | 精品国产一级片 | av免费电影在线 | 爱爱免费视频网站 | 久久久性色精品国产免费观看 | 婷婷色在线播放 | 91一区二区三区在线观看 | 日韩一区二区三区在线播放 | 在线看亚洲 | 成人性视频免费网站 | 日韩高清国产一区在线 | 亚洲第一福利视频 | 久久99国产精一区二区三区 | 久久er精品 | 国产欧美精品区一区二区三区 | 国产日韩欧美激情 | 欧美成人精品一区二区男人看 | 爱爱小视频 | 精精国产xxxx视频在线播放 | 免费看一级毛片 | 欧美成人精品一区二区男人看 | 国产精品久久久久久久久久久久冷 | 国产精品一区一区三区 | 91精品久久久久久久久久入口 | 91xxx在线观看| 日本不卡一区 | 久久宗合色 | 精品美女久久久 | 一区二区免费在线观看 | 欧美最猛黑人xxxx黑人 | 久久久精品一区二区三区 | 亚洲在线免费观看 | 欧美精品久久久久 | 日韩成人中文字幕 | 日韩精品久久久 | 亚洲一区二区国产 | 日本黄色免费大片 | 高清av电影| 成人精品国产一区二区4080 | 久久性av |