成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

超越擴散模型!自回歸新范式僅需2.9秒就生成高質量圖像,中科大哈工大度小滿出品

人工智能 新聞
總的來說,STAR基于scale-wise自回歸的方式,解決了VAR中存在的引導條件有限、位置編碼不合理的問題,實現(xiàn)了更高效、性能更好的文本引導圖像生成。

超越擴散模型!自回歸范式在圖像生成領域再次被驗證——

中科大、哈工大、度小滿等機構提出通用文生圖模型STAR

僅需2.9秒就可生成高質量圖像,超越當前一眾包括SDXL在內(nèi)擴散模型的性能。

圖片

此外在生成圖像真實度、圖文一致性和人類偏好上均表現(xiàn)優(yōu)秀。

圖片

來看看具體是如何做到的?

自回歸通用文生圖模型STAR

擴散模由于其高質量和多元的生成,一度在文生圖領域占有主導地位。

它通過逐步的去噪過程,為圖像生成提供了更強的穩(wěn)定性和可控性,然而也導致生成過程極其耗時。

而自回歸模型的潛力,在受到大語言模型啟發(fā)下,開始在這一領域逐漸被探索。

比如VAR指出是因為自回歸模型逐個預測token的行為不符合圖像模態(tài)的特點,提出“next-scale prediction”范式,將視覺自回歸建模為逐個預測更大尺度scale的token map。這一方式避免了原始基于next-token的自回歸方案難以建模圖像模態(tài)的問題,重新為視覺生成定義了新的自回歸范式,從而使得生成的圖像具有更高的真實度,不過仍然有很多局限,性能仍落后于擴散模型。

作者提出基于尺度的文生圖自回歸模型STAR,重新思考VAR中的“next-scale prediction”范式。

具體來說,所提出的STAR包括兩部分:

增強的文本引導和改進的位置編碼,以高效地實現(xiàn)高質量圖像生成

增強的文本引導

為了更好地處理各種復雜的文本描述并生成相應的圖像,研究者提出幾項關鍵解決方案:

1、文本特征作為起始token map,根據(jù)起始token map生成更高分辨率的token map這不僅增強了模型對新文本場景的適應性,確保模型可以泛化到新的文本提示,從整體上保證了文本描述與生成圖像之間的一致性

2、在每個transformer層引入交叉注意力機制,從更精細的粒度控制圖像生成,使得生成的圖像更加精確地貼合文本。

具體網(wǎng)絡格式如下:

圖片

歸一化旋轉位置編碼(Normalized RoPE)

對于next-scale prediction范式,如何利用同一個transformer生成不同尺度的token map是一個重要的問題,隨之而來的是如何編碼這些token map中的tokens的位置。

傳統(tǒng)的正余弦編碼難以處理不同尺度的token map,同時編碼多個尺度容易導致尺度之間的混淆。

可學習的絕對位置編碼需要為每個尺度的token map學習對應的位置編碼,導致額外的學習參數(shù),提升了訓練難度,尤其是大尺度情況下的訓練變得更加困難;除此之外固定個數(shù)的位置編碼限制了更大分辨率圖像生成的可能。

研究者提出二維的歸一化旋轉位置編碼(Normalized RoPE)

圖片

任意token間的相對位置被歸一化到統(tǒng)一的尺度,從而確保了對不同尺度的token map中的相對位置有統(tǒng)一的理解,避免對不同尺度位置同時編碼的混淆,更好地適配scale-prediction任務。

除此之外,這一新的位置編碼不需要額外的參數(shù),更易于訓練,為更高分辨率圖像生成提供了潛在的可能。

訓練策略

研究者選擇先在256*256圖像上以較大的batch size訓練生成,隨后在512*512圖像上微調,以獲得512的生成結果。由于歸一化位置編碼,模型很快收斂,僅需少量微調即可生成高質量512分辨率圖像。

相比目前的方法,所提出的STAR在FID,CLIP score和ImageReward上表現(xiàn)優(yōu)異,體現(xiàn)了STAR良好的生成真實度,圖文一致性和人類偏好。除此之外,STAR生成一張512分辨率的高質量圖像僅需約2.9秒,相比現(xiàn)有的擴散文生圖模型具有顯著優(yōu)勢。

具體地,在MJHQ-30k上的FID達到4.73,超越了PixArt-α等模型;CLIP score達到0.291,與SDXL相當:

圖片

在ImageReward benchmark上,STAR達到了0.87的image reward,與領先的PixArt-α相當:

圖片
相比現(xiàn)有的方法,STAR可以生成多元的圖像類型。

在人物攝影、藝術繪畫、靜物、風景等場景下均能獲得很好的效果,生成的人臉、毛發(fā)、材質達到了令人驚嘆的細節(jié):

圖片

總的來說,STAR基于scale-wise自回歸的方式,解決了VAR中存在的引導條件有限、位置編碼不合理的問題,實現(xiàn)了更高效、性能更好的文本引導圖像生成。

廣泛的實驗證明,所提出的方法在生成圖像真實度、圖文一致性和人類偏好上均表現(xiàn)優(yōu)秀。僅需約2.9秒的時間內(nèi),在512分辨率圖像生成上,實現(xiàn)超越先進的文生圖擴散模型(PixArt-α、Playground、SDXL等)的性能。

基于自回歸的STAR為目前diffusion支配的文本控制圖像生成領域提供了新的可能。

項目網(wǎng)站:https://krennic999.github.io/STAR/ 

論文鏈接:https://arxiv.org/pdf/2406.10797

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-04-17 13:22:55

人工智能

2024-11-12 13:10:49

2024-10-16 14:10:00

AI視頻生成

2023-08-28 13:06:47

2024-12-04 09:15:00

AI模型

2025-01-09 09:29:57

2023-08-21 13:49:00

圖像技術

2024-12-09 10:15:00

AI技術

2024-12-02 10:40:00

AI模型

2025-04-01 05:10:00

2021-11-17 16:13:45

IBM 處理器量子

2024-11-06 13:03:49

2024-06-17 07:10:00

2023-11-30 13:04:56

LCM圖像

2023-05-31 16:15:51

模型圖像

2022-11-09 13:43:59

中小企業(yè)

2025-02-12 10:17:12

2024-09-02 08:22:00

模型數(shù)據(jù)集

2025-02-27 13:45:00

2024-04-12 08:59:02

強化學習系統(tǒng)人工智能擴散模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 9久9久| 中文字幕在线观看一区 | 亚洲不卡一| 九九热精品在线 | 国产美女精品视频 | 欧美成年黄网站色视频 | 欧美日韩国产精品一区二区 | 日韩爱爱网 | 精品无码久久久久久国产 | 成年人精品视频在线观看 | 亚洲国产成人精品女人久久久 | 91精品国产乱码麻豆白嫩 | 国产午夜一级 | 日韩国产精品一区二区三区 | 国产小u女发育末成年 | 综合久久亚洲 | 欧美日韩综合一区 | 四虎影院在线播放 | 视频一区在线 | 在线久草| 亚洲一区二区在线视频 | 日韩国产精品一区二区三区 | 成人免费视频 | 欧美一级久久精品 | 欧美日韩亚洲在线 | av网站观看 | 精品视频一区二区三区在线观看 | 国产一区不卡在线观看 | 97精品超碰一区二区三区 | 人干人人 | 91亚洲一区 | 91精品国产91久久久久久吃药 | 国产乱码精品一区二区三区忘忧草 | 国产精品国产成人国产三级 | 亚洲激精日韩激精欧美精品 | 国产亚洲网站 | 欧美一区二区三区在线播放 | 亚洲一区二区在线视频 | 国产欧美一区二区三区久久手机版 | 午夜影院中文字幕 | 97精品视频在线 |