成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法

發布于 2025-6-27 00:55
瀏覽
0收藏

大家好,今天給大家分享一個圖像生成的新工作—-Marrying Autoregressive Transformer and Diffusion with Multi-Reference Autoregression,后面我們簡稱TransDiff。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

首先,TransDiff是目前最簡潔的、將AR Transformer與Diffusion結合用于圖像生成方法。TransDiff將離散輸入(如類別、文本等)、連續輸入(圖像等)經過AR Transformer 編碼 為圖像語義表征,而后將表征通過一個較小的Diffusion Deocder 解碼 為圖片。

其次,我們提出了一種新的自回歸范式-- MRAR(Multi-Reference Autoregression)。此范式類似NLP領域的In-context Learning(ICL):通過學習上文同類別圖片生成質量更好、更多樣的圖片,唯一的區別是上文的圖片是模型自己生成的。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

Paper: https://arxiv.org/pdf/2506.09482
Code:https://github.com/TransDiff/TransDiff
Model:  https://huggingface.co/zhendch/Transdiff

具體介紹

為了節省讀者的時間,拋棄論文的結構,用Q&A這種更簡介的方式介紹TransDiff。

問:為什么使用Transformer?我們工作中AR Transformer編碼出了什么信息?

答:早期的CLIP工作以及后來大模型時代層出不窮的VL模型已經證明Transformer在圖像理解領域的優勢。尤其是在CLIP工作中,ViT模型可以將圖片的表征對齊到語義空間(文字bert表征與圖片的ViT表征cosine相似度)。

相似的,實驗證明:TransDiff中AR Transformer也是將類別和圖片編碼至圖片的高級(對比像素)語義空間。以下將不同類別的256維特征隨機進行拼接后生成得到圖片,不同于其他模型(VAR、LlamaGen等)的像素編輯,定性實驗展現出了模型的語義編輯能力。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

問:TransDiff使用較小Diffusion Deocder是否有制約? 是否優于單純Diffusion和AR Transformer方法?

答:TransDiff的deocder使用DiT結構,使用Flow Matching范式。diffusion占總體參數的1/3,參數量顯著低于主流diffusion模型。但是對比能夠搜集到的所有單純Diffusion和AR Transformer方法,TransDiff在Benchmark上還是有一定優勢,至少是“打的有來有回”。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

問:TransDiff很像MAR,是否只是MAR的簡單模仿?

答:TransDiff與MAR雖然結構上很像,但是模型展現的特點截然不同。首先,MAR是在像素(或patch)上生成,沒有顯性的語義表征,其次由于MAR使用的Diffusion Deocder過于簡單(n層MLP Layer)導致decoder表現力有制約。 因此,從下圖可以看出:MAR無法 “一步生圖”,且圖像patch是在自回歸過程中逐步迭代“完善”。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

問:MRAR好在哪里? 對比AR Transformer中常用的Token-Level AR 和 Scale-Level AR優勢嗎?

答:首先對比Token-Level AR和Scale-Level AR,TransDiff with MRAR在在Benchmark上有著較大的優勢。其次,我們發現 語義表征多樣性越高,圖像質量越高。而MRAR相較于Scale-Level AR可以顯著提升語義表征多樣性。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

最后放一些demo

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

One More Thing

TransDiff with MRAR在未經視頻數據訓練的情況下,展現出了連續幀生成的潛力。 所以后續也會將TransDiff應用在視頻生成領域,大家敬請期待。

TransDiff--最簡潔的AR Transformer + Diffusion圖像生成方法-AI.x社區

本文轉載自????NLP工作站????,作者:NLP工作站

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 黄毛片| 天天干天天插天天 | 中文字幕1区2区3区 亚洲国产成人精品女人久久久 | 久久久久国产精品一区 | 天天操网| 国产色婷婷久久99精品91 | 色综合网站 | 91精品成人久久 | 三级av网址 | 亚洲一区视频在线 | 国产精品久久国产精品久久 | 一级大片网站 | 麻豆精品一区二区三区在线观看 | 先锋av资源网 | 精品国产乱码久久久久久果冻传媒 | 国产精品一区二区在线 | 亚洲国产精品久久人人爱 | 最新免费黄色网址 | 国产精品毛片一区二区在线看 | 人人看人人搞 | 在线观看中文字幕 | 中文字幕精品一区 | 国产美女在线看 | 亚洲精品18 | 观看av| 国产精品久久久久久久久久免费 | 7777久久| 一区二区在线免费观看视频 | 日韩三级在线观看 | 欧美日韩视频在线 | 免费观看毛片 | 国产精品久久久久一区二区三区 | 婷婷久久精品一区二区 | 国产日韩精品视频 | 成人在线影视 | 国产1区在线 | 一级黄色毛片 | a级片在线观看 | 国产精品久久一区 | 在线观看av网站永久 | 产真a观专区 |