成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

視覺Token無縫對齊LLMs詞表!V2Flow:基于LLMs實現高保真自回歸圖像生成

人工智能
隨著ChatGPT掀起自回歸建模革命后,近年來研究者們開始探索自回歸建模在視覺生成任務的應用,將視覺和文本數據統一在“next-token prediction”框架下。

視覺Token可以與LLMs詞表無縫對齊了!

V2Flow,基于LLMs可以實現高保真自回歸圖像生成。

隨著ChatGPT掀起自回歸建模革命后,近年來研究者們開始探索自回歸建模在視覺生成任務的應用,將視覺和文本數據統一在“next-token prediction”框架下。

實現自回歸圖像生成的關鍵是設計向量化(Vector-Quantization)的視覺Tokenizer,將視覺內容離散化成類似于大語言模型詞表的離散Token。

現有方法雖取得進展,卻始終面臨兩大桎梏:

1、傳統視覺tokenizer生成的離散表征與LLM詞表存在顯著的分布偏差。

2、維度詛咒:圖像的二維結構迫使大語言模型以逐行方式預測視覺token,與一維文本的連貫語義預測存在本質沖突。

結構性與特征分布性的雙重割裂,暴露了當前自回歸視覺生成的重大缺陷:缺乏能夠既保證高保真圖像重建,又能與預訓練LLMs詞匯表在結構上和特征分布上統一的視覺tokenizer。解決這一問題對于實現有效的多模態自回歸建模和增強的指令遵循能力至關重要。

因此,一個核心問題是:

能否設計一種視覺tokenizer,使生成的離散視覺token在保證高質量視覺重建的同時,與預訓練LLMs詞匯表實現無縫融合?

統一視覺Token與大語言模型詞表

最新開源的V2Flow tokenizer,首次實現了將視覺內容直接嵌入現有大語言模型的詞匯空間,在保證高質量視覺重建的同時從根本上解決模態對齊問題。總體而言,V2Flow主要包括三點核心貢獻:

視覺詞匯重采樣器

如圖1(a) ,將圖像壓縮成緊湊的一維離散token序列,每個token被表示為大語言模型(例如Qwen、LLaMA系列)詞匯空間上的軟類別分布。這一設計使得視覺tokens可以無縫地嵌入現有LLM的詞匯序列中。換言之,圖像信息被直接翻譯成LLM“聽得懂”的語言,實現了視覺與語言模態的對齊。

在圖1(b)中,經由重采樣器處理后,視覺tokens的潛在分布與大型語言模型(LLM)的詞匯表高度一致。這種在結構和潛在分布上的高度兼容性,能夠降低視覺tokens直接融入已有LLM的復雜性。

圖 1 視覺詞匯重采樣器的核心設計。圖 1 視覺詞匯重采樣器的核心設計。

掩碼自回歸流匹配編碼器

為了實現離散化視覺token的高保真視覺重建,V2Flow提出了掩碼自回歸流匹配解碼器。該解碼器采用掩碼Transformer編碼-解碼結構,為視覺tokens補充豐富的上下文信息。增強后的視覺tokens用于條件化一個專門設計的速度場模型,從標準正態先驗分布中重建出連續的視覺特征。在流匹配采樣階段,該解碼器采用類似MA的方式,以“next-set prediction”的方式逐步完成視覺重建。

相比于近期提出的僅依賴掩碼編碼器-解碼器結構的TiTok,V2Flow自回歸采樣的優勢是能夠在更少的視覺token數量下實現更高的重建質量,有效提高了壓縮效率。

圖 2 掩碼自回歸流匹配解碼器示意圖以及采樣階段算法流程圖 2 掩碼自回歸流匹配解碼器示意圖以及采樣階段算法流程

端到端自回歸視覺生成

圖3展示了V2Flow協同LLMs實現自回歸視覺生成的流程。為促進兩者無縫融合,在已有LLM詞匯表基礎上擴展了一系列特定視覺tokens,并直接利用V2Flow中的碼本進行初始化。訓練階段構建了包含文本-圖像對的單輪對話數據,文本提示作為輸入指令,而離散的視覺tokens則作為預測目標響應。

在推理階段,經過預訓練的LLM根據文本指令預測視覺tokens,直至預測到 token為止。隨后,離散視覺tokens被送入V2Flow解碼器,通過流匹配采樣重建出高質量圖像。

圖3 V2Flow與預訓練LLMs融合實現自回歸視覺生成的整體流程。圖3 V2Flow與預訓練LLMs融合實現自回歸視覺生成的整體流程。

實驗結果

重建質量方面,V2Flow無論是在ImageNet-1k 測試數據集的256和512分辨率下均取得了競爭性的重建性能。

相比于字節提出的一維離散化tokenizer TiTok相比,V2Flow利用更少的離散tokens實現了更高質量的圖像重建,顯著提高了整體壓縮效率。

圖片圖片

文本引導圖像生成方面,實驗結果表明,相比于當前兩種最先進的自回歸生成模型Janus-Pro-7B和Lumina-mGPT-7B,V2Flow+LLaMA2-7B能夠更加準確地捕捉文本提示中的語義細節,展示了極具競爭力的生成性能。

圖片圖片

開源生態與團隊招募:共建多模態未來

開源承諾:讓技術普惠每一位探索者

開源是推動AI技術進化的核心動力。本次發布的V2Flow框架已完整公開訓練與推理代碼庫,開發者可基于現有代碼快速復現論文中的核心實驗。更令人期待的是,團隊預告將于近期陸續發布:

512/1024分辨率預訓練模型:支持高清圖像重建與生成

自回歸生成模型:集成LLaMA等主流大語言模型的開箱即用方案

多模態擴展工具包:未來將支持視頻、3D、語音等跨模態生成任務

加入我們:共創下一代多模態智能

V2Flow作者團隊現招募多模態生成算法研究型實習生!如果你渴望站在AI內容生成的最前沿,參與定義自回歸架構的未來,這里將是你實現突破的絕佳舞臺。

我們做什么?

探索文本、圖像、視頻、語音、音樂的統一自回歸生成范式

構建支持高清、長序列、強語義關聯的多模態大模型

攻克數字人、3D生成、實時交互創作等產業級應用難題

我們需要你具備:

硬核技術力

  • 精通Python,熟練使用PyTorch/TensorFlow等框架
  • 深入理解Diffusers、DeepSpeed等AIGC工具鏈
  • 在CV/NLP領域頂級會議(CVPR、ICML、NeurIPS等)發表論文者優先

極致創新欲

  • 對多模態生成、自回歸架構、擴散模型等技術有濃厚興趣
  • 曾在Kaggle、ACM競賽等獲得Top名次者優先
  • 有開源項目貢獻或獨立開發經驗者優先

   投遞方式:zhangguiwei@duxiaoman.com

論文鏈接:https://arxiv.org/abs/2503.07493

開源項目鏈接:https://github.com/Davinci-XLab/V2Flow

責任編輯:武曉燕 來源: 量子位
相關推薦

2025-04-29 08:18:48

2025-01-07 09:20:00

2025-04-01 09:40:00

2025-03-24 11:01:41

2024-12-20 14:27:09

2024-09-05 08:24:09

2024-04-17 12:59:18

前端Token開發

2024-04-03 14:11:49

模型訓練

2021-04-14 15:03:16

數據性能存儲

2025-04-21 08:20:00

視覺模型訓練

2024-12-23 15:46:59

2021-04-14 14:50:27

計算機模型 技術

2023-07-17 11:02:36

模型開源

2025-02-20 09:36:45

2024-09-02 14:37:50

2024-04-17 13:22:55

人工智能

2024-07-10 11:38:15

2024-06-04 09:25:51

2021-01-06 10:51:56

量子互聯網網絡安全
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品一二区 | 九色av| 亚洲www啪成人一区二区麻豆 | 国产精品久久久久久久久图文区 | 欧美中文字幕一区 | 久久丁香 | 一区二区三区视频在线 | 草久网 | 羞羞视频在线观看 | 欧美极品视频在线观看 | 黄色大片免费播放 | 日本涩涩网 | 日本成人在线观看网站 | 欧美激情精品久久久久 | 国产精品不卡视频 | 狠狠色狠狠色综合系列 | 色狠狠桃花综合 | 国产成人免费视频 | 一级毛片免费完整视频 | 欧美日韩在线一区二区三区 | 91一区二区 | 日韩三级一区 | 精品不卡| 国产精品欧美精品日韩精品 | 亚洲黄色在线免费观看 | 成人免费视频观看视频 | 91 在线 | 日本成人在线网址 | 国产片侵犯亲女视频播放 | 欧美一区二区在线 | 国产精久久久久久久 | 亚洲1区 | 日韩欧美网 | 一区二区三区观看视频 | cao在线 | 97精品国产一区二区三区 | 久久成人一区 | 欧美群妇大交群中文字幕 | 激情婷婷 | 亚洲第一av网站 | 国产成人精品免费视频大全最热 |