成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

擴散模型和Transformer夢幻聯動!一舉拿下新SOTA,MILA博士:U-Net已死

人工智能 新聞
對于這篇論文研究的目的,作者表示希望探討擴散模型中不同架構選擇的重要性,以及也是給將來生成模型的評估做一個評判標準。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

“U-Net已死,Transformer成為擴散模型新SOTA了!”

就在ChatGPT占盡AI圈風頭時,紐約大學謝賽寧的圖像生成模型新論文橫空出世,收獲一眾同行驚訝的聲音。

圖片

△MILA在讀ML博士生Ethan Caballero

論文創意性地將Transformer與擴散模型融合,在計算效率和生成效果上均超越了基于U-Net的經典模型ADM和LDM,打破了U-Net統治擴散模型的“普遍認知”。

圖片

網友給這對新組合命名也是腦洞大開:

All we need is U-Transformer

希望他們沒有錯過Transffusion這個名字。

要知道,這幾年雖然Transformer占盡風頭,但U-Net在擴散模型領域仍然一枝獨秀——

無論是“前任王者”DALL·E2還是“新晉生成AI”Stable Diffusion,都沒有使用Transformer作為圖像生成架構。

圖片

△英偉達AI科學家Jim Fan

如今新研究表明,U-Net并非不可用Transformer替代。

“U-Net并非不可替代”

論文提出的新架構名叫Diffusion Transformers(DiTs)

架構保留了很多ViT的特性,其中整體架構如圖左(包含多個DiT模塊),具體的DiT模塊組成如圖右:

圖片

更右邊的兩個灰色框的模塊,則是DiT架構的“變體”。主要是探討在條件輸入下,不同的架構是否能對信息進行更好的處理,包括交叉注意力等。

最終結果表明,還是層歸一化(Layer Normalization)更好用,這里最終選用了Adaptive Layer Normalization(自適應層歸一化)的方法。

對于這篇論文研究的目的,作者表示希望探討擴散模型中不同架構選擇的重要性,以及也是給將來生成模型的評估做一個評判標準。

先說結果——作者認為,U-Net的歸納偏置(inductive bias),對于擴散模型性能提升不是必須的。

與之相反,他們能“輕松地”(readily)被Transformer的標準架構取代。

有網友發現,DALL·E和DALL·E2似乎都有用到Transformer。

這篇論文和它們的差異究竟在哪里?

事實上,DALL·E雖然是Transformer,但并非擴散模型,本質是基于VQVAE架構實現的;

至于DALL·E2和Stable Diffusion,雖然都分別將Transformer用在了CLIP和文本編碼器上,但關鍵的圖像生成用的還是U-Net。

圖片
△經典U-Net架構

不過,DiT還不是一個文本生成圖像模型——目前只能基于訓練標簽生成對應的新圖像。

雖然生成的圖片還帶著股“ImageNet風”,不過英偉達AI科學家Jim Fan認為,將它改造成想要的風格和加上文本生成功能,都不是難點。

如果將標簽輸入調整成其他向量、乃至于文本嵌入,就能很快地將DiT改造成一個文生圖模型:

Stable-DiT馬上就要來了!

所以DiTs在生成效果和運算速率上,相比其他圖像生成模型究竟如何?

在ImageNet基準上取得SOTA

為了驗證DiTs的最終效果,研究者將DiTs沿“模型大小”和“輸入標記數量”兩個軸進行了縮放。

具體來說,他們嘗試了四種不同模型深度和寬度的配置:DiT-S、DiT-B、DiT-L和DiT-XL,在此基礎上又分別訓練了3個潛塊大小為8、4和2的模型,總共是12個模型。

圖片

從FID測量結果可以看出,就像其他領域一樣,增加模型大小和減少輸入標記數量可以大大提高DiT的性能。

FID是計算真實圖像和生成圖像的特征向量之間距離的一種度量,越小越好。

換句話說,較大的DiTs模型相對于較小的模型是計算效率高的,而且較大的模型比較小的模型需要更少的訓練計算來達到給定的FID。

其中,Gflop最高的模型是DiT-XL/2,它使用最大的XL配置,patch大小為2,當訓練時間足夠長時,DiT-XL/2就是里面的最佳模型。

圖片

于是在接下來,研究人員就專注于DiT-XL/2,他們在ImageNet上訓練了兩個版本的DiT-XL/2,分辨率分別為256x256和512x512,步驟分別為7M和3M。

當使用無分類器指導時,DiT-XL/2比之前的擴散模型數據都要更好,取得SOTA效果:

在256x256分辨率下,DiT-XL/2將之前由LDM實現的最佳FID-50K從3.60降至了2.27。

并且與基線相比,DiTs模型本身的計算效率也很高:

DiT-XL/2的計算效率為119 Gflops,相比而言LDM-4是103 Gflops,ADM-U則是742 Gflops。

圖片

同樣,在512x512分辨率下,DiT-XL/2也將ADM-U之前獲得的最佳FID 3.85降至了3.04。

不過此時ADM-U的計算效率是2813 Gflops,而XL/2只有525 Gflops。

圖片

研究作者

本篇論文作者為UC伯克利的William Peebles和紐約大學的謝賽寧。

圖片

William Peebles,目前是UC伯克利的四年級博士生,本科畢業于麻省理工學院。研究方向是深度學習和人工智能,重點是深度生成模型。

圖片

之前曾在Meta、Adobe、英偉達實習過,這篇論文就是在Meta實習期間完成。

謝賽寧,紐約大學計算機科學系助理教授,之前曾是Meta FAIR研究員,本科就讀于上海交通大學ACM班,博士畢業于UC圣迭戈分校。

謝賽寧讀博士時曾在FAIR實習,期間與何愷明合作完成ResNeXt,是該論文的一作,之前何愷明一作論文MAE他也有參與。

圖片

當然,對于這次Transformer的表現,也有研究者們表示“U-Net不服”。

例如三星AI Lab科學家Alexia Jolicoeur-Martineau就表示:

U-Net仍然充滿生機,我相信只需要經過細小調整,有人能將它做得比Transformer更好。

看來,圖像生成領域很快又要掀起新的“較量風暴”了。

?論文地址:???https://arxiv.org/abs/2212.09748v1?

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-12-23 10:15:44

模型AI

2024-03-25 13:06:00

數據訓練

2025-04-27 08:22:49

2021-03-17 16:53:51

IO多路

2020-09-08 07:01:01

調度算法

2024-12-26 14:42:23

2025-06-05 11:52:27

U-Net擴散模型掩碼

2025-01-03 15:39:02

2009-11-08 22:34:30

2025-01-26 11:00:00

2012-07-30 09:40:05

2024-03-27 10:20:31

模型場景

2025-04-07 08:50:00

模型AI數據

2024-08-26 09:35:00

模型文生圖

2024-04-02 09:17:50

AI數據開源

2022-12-25 12:57:00

模型自然學習

2024-01-31 09:38:23

AI模型

2023-11-15 15:37:21

大模型人工智能

2010-01-14 17:10:01

VLAN網絡

2025-02-25 09:30:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人国产精品久久久 | 日韩欧美一级精品久久 | 日韩高清在线 | 天天干亚洲 | 成人精品国产免费网站 | 精品国产乱码久久久久久蜜柚 | 91av大全 | 国产成人短视频在线观看 | 天天操夜夜爽 | 欧美一a一片一级一片 | 亚洲精品久久久一区二区三区 | 国产在线视频网 | 在线免费观看a级片 | 久久国产视频播放 | 亚洲成人网在线 | 91免费在线 | 天堂一区二区三区四区 | 91av在线电影 | 精品视频一区二区三区在线观看 | 91精品在线播放 | 久久久亚洲综合 | 成人毛片视频免费 | 成人在线中文字幕 | pacopacomama在线 | 免费在线看黄 | 性一区| 成人欧美一区二区 | 久久成人激情 | 色综网 | 午夜精品三区 | 视频1区2区 | 狠狠涩| 国产超碰人人爽人人做人人爱 | 一级大黄色片 | 九色 在线 | 精品av| 国产精品日韩 | 熟女毛片 | 欧美成人精品一区 | 最新伦理片 | 亚洲一区久久 |