成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Transformer再勝Diffusion!谷歌發布新一代文本-圖像生成模型Muse:生成效率提升十倍

人工智能 新聞
谷歌帶著更強大的圖像生成模型來了,依然Transformer!

最近谷歌又發布了全新的文本-圖像生成Muse模型,沒有采用當下大火的擴散(diffusion)模型,而是采用了經典的Transformer模型就實現了最先進的圖像生成性能,相比擴散或自回歸(autoregressive)模型,Muse模型的效率也提升非常多。

圖片

論文鏈接:https://arxiv.org/pdf/2301.00704.pdf

項目鏈接:https://muse-model.github.io/

Muse以masked modeling任務在離散token空間上進行訓練:給定從預訓練的大型語言模型(LLM)中提取的文本嵌入,Muse的訓練過程就是預測隨機masked掉的圖像token。

與像素空間的擴散模型(如Imagen和DALL-E 2)相比,由于Muse使用了離散的token,只需要較少的采樣迭代,所以效率得到了明顯提高;

與自回歸模型(如Parti)相比,由于Muse使用了并行解碼,所以效率更高。

圖片

使用預訓練好的LLM可以實現細粒度的語言理解,從而轉化為高保真的圖像生成和對視覺概念的理解,如物體、空間關系、姿態、cardinality等。

在實驗結果中,只有900M參數的Muse模型在CC3M上實現了新的SOTA性能,FID分數為6.06。

Muse 3B參數模型在zero-shot COCO評估中實現了7.88的FID,同時還有0.32的CLIP得分。

圖片

Muse還可以在不對模型進行微調或反轉(invert)直接實現一些圖像編輯應用:修復(inpainting)、擴展(outpainting)和無遮罩編輯(mask-free editing)。

Muse模型

Muse模型的框架包含多個組件,訓練pipeline由T5-XXL預訓練文本編碼器,基礎模型(base model)和超分辨率模型組成。

圖片

1. 預訓練文本編碼器

與之前研究中得出的結論類似,研究人員發現利用預訓練的大型語言模型(LLM)有利于提升高質量圖像的生成結果。

比如從語言模型T5-XXL中提取的嵌入(embedding)帶有關于物體(名詞)、行動(動詞)、視覺屬性(形容詞)、空間關系(介詞)以及其他屬性(如卡片性和組成)的豐富信息。

所以研究人員提出假設(hypothesis):Muse模型學會將LLM嵌入中的這些豐富的視覺和語義概念映射到生成的圖像上。

最近也有一些工作已經證明了,由LLM學習到的概念表征與由視覺任務訓練的模型學習的概念表征大致上是可以「線性映射」的。

給定一個輸入的文本標題,將其傳遞給凍結參數的T5-XXL編碼器,可以得到一個4096維的語言嵌入向量,然后將這些向量線性地投射到Transformer模型(base和超分辨率)的hidden size維度上。

2. 使用VQGAN進行Semantic Tokenization

VQGAN模型由一個編碼器和一個解碼器組成,其中的量化層(quantization layer)將輸入圖像映射成來自一個學習過的codebook的token序列。

然后完全用卷積層建立編碼器和解碼器,以支持對不同分辨率的圖像進行編碼。

編碼器中包括幾個下采樣塊來減少輸入的空間維度,而解碼器中則是有相應數量的上采樣塊來將latents映射回原始圖像大小。

研究人員訓練了兩個VQGAN模型:一個是下采樣率f=16,模型在256×256像素的圖像上獲得基本模型的標記,從而得到空間尺寸為16×16的標記;另一個是下采樣率f=8,在512×512的圖像上獲得超分辨率模型的token,相應的的空間尺寸為64×64。

編碼后得到的離散token可以捕捉圖像的高層次語義,同時也可以消除低層次的噪聲,并且根據token的離散性可以在輸出端使用交叉熵損失來預測下一階段的masked token

3. Base Model

Muse的基礎模型是一個masked Transformer,其中輸入是映射的T5嵌入和圖像token.

研究人員將所有的文本嵌入設置為unmasked,隨機mask掉一部分不同的圖像token后,用一個特殊的[MASK]標記來代替原token.

然后將圖像token線性地映射到所需的Transformer輸入或hidden size維度的圖像輸入embedding中,并同時學習2D position embedding

和原始的Transformer架構一樣,包括幾個transformer層,使用自注意塊、交叉注意力塊和MLP塊來提取特征。

在輸出層,使用一個MLP將每個masked圖像嵌入轉換為一組logits(對應于VQGAN codebook的大小),并以ground truth的token為目標使用交叉熵損失。

在訓練階段,基礎模型的訓練目標為預測每一步的所有msked tokens;但在推理階段,mask預測是以迭代的方式進行的,這種方式可以極大提高質量。

4. 超分辨率模型

研究人員發現,直接預測512×512分辨率的圖像會導致模型專注于低層次的細節而非高層次的語義。

使用級聯模型(cascade of models)則可以改善這種情況:

首先使用一個生成16×16 latent map(對應256×256的圖像)的基礎模型;然后是一個超分辨率模型,將基礎latent map上采樣為64×64(對應512×512的圖像)。其中超分辨率模型是在基礎模型訓練完成后再進行訓練的。

圖片

如前所述,研究人員總共訓練了兩個VQGAN模型,一個是16×16潛分辨率和256×256空間分辨率,另一個是64×64潛伏分辨率和512×512空間分辨率。

由于基礎模型輸出對應于16×16 latent map的token,所以超分辨率模塊學會了將低分辨率的latent map 「翻譯」成高分辨率的latent map,然后通過高分辨率的VQGAN解碼,得到最終的高分辨率圖像;該翻譯模型也是以類似于基礎模型的方式進行text conditioning和交叉注意力的訓練。

5. 解碼器微調

為了進一步提高模型生成細節的能力,研究人員選擇通過增加VQGAN解碼器的容量,添加更多的殘差層(residual layer)和通道的同時保持編碼器的容量不變。

然后對新的解碼器進行微調,同時保持VQGAN編碼器的權重、codebook和Transformers(即基礎模型和超分辨率模型)不變。這種方式能夠提高生成圖像的視覺質量,而不需要重新訓練任何其他的模型組件(因為視覺token保持固定)。

圖片

可以看到,經過微調的解碼器以重建更多更清晰的細節。

6. 可變掩碼率(Masking Rate)

研究人員使用基于Csoine scheduling的可變掩碼率來訓練模型:對于每個訓練例子,從截斷的arccos分布中抽出一個掩碼率r∈[0,1],其密度函數如下.

圖片

掩碼率的期望值為0.64,也就是說更偏向于選擇更高的掩碼率,使得預測問題更加困難。

隨機的掩碼率不僅對并行采樣方案至關重要,而且還能實現一些零散的、開箱即用的編輯功能。

7. Classifier Free Guidance(CFG)

研究人員采用無分類指導(CFG)來提高圖像的生成質量和文本-圖像對齊。

在訓練時,在隨機選擇的10%的樣本上去除文本條件,注意力機制降為圖像token本身的自注意力。

在推理階段,為每個被mask的token計算一個條件logit lc和一個無條件logit lu,然后通過從無條件logit中移出一個量t作為指導尺度,形成最終的logit lg:

圖片

直觀來看,CFG是以多樣性換取保真度,但與以前方法不同的是,Muse通過采樣過程線性地增加指導尺度t來減少多樣性的損失,使得early token可以在低引導或無引導的情況下更自由地被取樣,不過也增加了對later tokens條件提示的影響。

研究人員還利用這一機制,通過將無條件的logit lu替換為以negative prompt為條件的logit,促進了生成圖像具有與postive prompt相關的特征。

8. 推理時迭代并行解碼

在提升模型推理時間效率的一個關鍵部分是使用并行解碼來預測單個前向通道中的多個輸出token,其中一個關鍵假設是馬爾科夫屬性,即許多token是有條件地獨立于給定的其他token的。

其中解碼是根據cosine schedule進行的,選擇固定比例中最高置信度的掩碼進行預測,其中token在剩余的步中被設定為unmasked,并且適當減少masked tokens。

根據上述過程,就可以在基本模型中只用24個解碼步(step)實現對256個token的推理,在超分辨率模型中用8個解碼步對4096個token進行推理,相比之下,自回歸模型需要256或4096步,擴散模型需要數百步。

雖然最近的一些研究包括progressive distillation、better ODE solver大大減少了擴散模型的采樣步驟,但這些方法還沒有在大規模的文本到圖像生成中得到廣泛驗證。

實驗結果

研究人員以不同的參數量(從600M到3B),基于T5-XXL訓練了一系列基礎Transformer模型。

生成圖像的質量

實驗中測試了Muse模型對于不同屬性的文本提示的能力,包括對cardinality的基本理解,對于非單數的物體,Muse并沒有多次生成相同的物體像素,而是增加了上下文的變化,使整個圖像更加真實。

圖片

例如,大象的大小和方向、酒瓶包裝紙的顏色以及網球的旋轉等等。

定量比較

研究人員在CC3M和COCO數據集上與其他研究方法進行了實驗對比,指標包括衡量樣本質量和多樣性的Frechet Inception Distance(FID),以及衡量圖像/文本對齊的CLIP得分。

圖片

實驗結果證明了632M的Muse模型在CC3M上取得了SOTA結果,在FID得分方面得到了改善,同時也取得了最先進的CLIP得分。

圖片

在MS-COCO數據集上,3B模型取得了7.88分的FID得分,略好于相似參數量的Parti-3B模型取得的8.1分。

責任編輯:張燕妮 來源: 新智元
相關推薦

2012-07-02 16:39:26

谷歌電視

2023-07-12 14:28:45

谷歌模型

2011-08-02 16:47:44

IBMXIV存儲

2012-09-19 18:02:51

ONT華為

2023-04-14 14:42:07

騰訊人工智能

2023-10-11 09:53:27

人工智能AI 圖像

2013-01-04 16:15:08

微軟ERPDynamics AX

2025-05-26 00:02:00

TypeScriptGo 語言前端

2017-12-06 08:06:47

IBMGPU機器學習

2025-02-26 00:15:30

2016-09-29 15:13:34

以太網網絡速度

2024-12-12 08:18:50

2024-06-27 11:22:34

2023-02-06 07:17:22

2009-03-11 13:02:20

存儲虛擬化數據中心

2023-01-08 13:22:03

模型

2022-02-07 15:05:07

模型AI訓練

2020-03-19 10:31:14

AI 數據人工智能

2011-07-07 10:35:29

華為智真系統通信領域
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日本激情一区二区 | 天天综合久久 | 日本天天操| 久久久久久国产精品 | 国产精品五月天 | 亚洲国产网 | 国产 91 视频| 精品国产伦一区二区三区观看说明 | 亚洲精品视频免费观看 | 亚洲一区二区在线播放 | 中国人pornoxxx麻豆 | 日韩精品在线一区 | 天天综合网天天综合色 | 一区二区三区四区在线 | 国产精品视频入口 | 天天色av| 91精品国产综合久久久久久丝袜 | 91久久精品日日躁夜夜躁欧美 | 久亚州在线播放 | 国产高清无av久久 | 在线观看亚洲精品 | 国产一区在线免费 | 99在线精品视频 | 久久久www成人免费精品 | 天天玩天天操天天干 | 欧美在线视频a | 伊人成人免费视频 | 欧美一级免费看 | 一二区视频 | 国产黄色大片在线免费观看 | 国产一级在线观看 | 天堂一区二区三区 | www亚洲精品 | 日韩欧美在线一区二区 | 免费看一区二区三区 | 国产在线对白 | 国产精品免费一区二区 | 精品久久久久久18免费网站 | 青青草在线视频免费观看 | 欧美九九 | 亚洲成av|