成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

字節(jié)最新文本生成圖像AI,訓(xùn)練集里居然沒有一張帶文字描述的圖片

人工智能 新聞
不給文字注釋AI怎么知道每一張圖片代表什么?這個(gè)模型到底咋訓(xùn)練出來的?

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

?一個(gè)文本-圖像對數(shù)據(jù)都不用,也能讓AI學(xué)會看文作圖?

來自字節(jié)的最新text2image模型,就做到了。

實(shí)驗(yàn)數(shù)據(jù)顯示,它的效果比VQGAN-CLIP要真實(shí),尤其是泛化能力還比不少用大量文本-圖像數(shù)據(jù)對訓(xùn)練出來的模型要好很多。

嗯?不給文字注釋AI怎么知道每一張圖片代表什么?

這個(gè)模型到底咋訓(xùn)練出來的?

不用文字訓(xùn)練也能根據(jù)文本生成圖像

首先,之所以選擇這樣一種方式,作者表示,是因?yàn)槭占罅繋淖值膱D像數(shù)據(jù)集的成本太高了。

而一旦擺脫對文本-圖像對數(shù)據(jù)的需求,我們就可以直接用大型無文本圖像數(shù)據(jù)集 (比如ImageNet)來訓(xùn)練強(qiáng)大且通用的text2image生成器。

字節(jié)實(shí)現(xiàn)的這個(gè)模型叫做CLIP-GEN,它具體是怎么操作的?

一共分三大步。

首先,對于一幅沒有文本標(biāo)簽的圖像,使用CLIP的圖像編碼器,在語言-視覺(language-vision)聯(lián)合嵌入空間(embedding space)中提取圖像的embedding。

接著,將圖像轉(zhuǎn)換為VQGAN碼本空間(codebook space)中的一系列離散標(biāo)記(token)。

也就是將圖像以與自然語言相同的方式進(jìn)行表示,方便后續(xù)使用Transformer進(jìn)行處理。

其中,充當(dāng)image tokenizer角色的VQGAN模型,可以使用手里的無標(biāo)記圖像數(shù)據(jù)集進(jìn)行訓(xùn)練。

最后,再訓(xùn)練一個(gè)自回歸Transformer,用它來將圖像標(biāo)記從Transformer的語言-視覺統(tǒng)一表示中映射出對應(yīng)圖像。

經(jīng)過這樣的訓(xùn)練后,面對一串文本描述,Transformer就可以根據(jù)從CLIP的文本編碼器中提取的文本嵌入(text embedding)生成對應(yīng)的圖像標(biāo)記(image tokens)了。

那這樣全程沒有文本數(shù)據(jù)參與訓(xùn)練的文本-圖像生成器,效果到底行不行?

性能與清華CogView相當(dāng)

作者分別在ImageNe和MSCOCO數(shù)據(jù)集上對CLIP-GEN進(jìn)行訓(xùn)練和評估。

首先,用MS-COCO驗(yàn)證集中的六個(gè)文本描述生成樣本。

CLIP-GEN和其他通過大量文本-圖像對訓(xùn)練的text2image生成模型的效果對比如下:

其中,VQGAN-CLIP的結(jié)果比較不真實(shí),并且伴隨嚴(yán)重的形狀扭曲。

來自清華的CogView號稱比DALL-E更優(yōu)秀,在這里的實(shí)驗(yàn)中,它確實(shí)可以生成良好的圖像結(jié)構(gòu),但在紋理細(xì)節(jié)上差點(diǎn)兒事兒。

DF-GAN可以生成具有豐富細(xì)節(jié)的合理圖像,但也容易產(chǎn)生局部偽影。

作者認(rèn)為,與這些對比模型相比,CLIP-GEN的圖像細(xì)節(jié)更豐富,質(zhì)量更高一些,比如它就很好地詮釋了第二組文字中要求的“水中倒影”(不過不太能理解“三只毛絨熊“中的數(shù)字概念)。

定量實(shí)驗(yàn)結(jié)果基本證明了這一結(jié)論:

CLIP-GEN拿到了最高的FID-0、FID-1分?jǐn)?shù);CapS得分(衡量輸入文本和生成圖像之間的語義相似性)除了比CogView低4%,比其他模型都高很多。

此外,作者還發(fā)現(xiàn),CLIP-GEN的泛化能力似乎也不錯(cuò)。

在下面這組非常規(guī)的文字描述中,比如生成“一只會飛的企鵝”,“叼雪茄的狗”、“有臉和頭發(fā)的檸檬”……CLIP-GEN基本都可以實(shí)現(xiàn),別的模型卻不太能理解。

作者介紹

本模型的五位作者全部來自字節(jié)。

一作Wang Zihao本科畢業(yè)于北京理工大學(xué),博士畢業(yè)于UC伯克利,曾在谷歌擔(dān)任3年軟件開發(fā)工程師,現(xiàn)就職于TikTok。

通訊作者名叫易子立,本科畢業(yè)于南京大學(xué),博士畢業(yè)于加拿大紐芬蘭紀(jì)念大學(xué),目前在字節(jié)擔(dān)任人工智能專家(主要研究多模態(tài)、超分辨率、人臉特效),在此之前,他曾在華為工作。

論文地址:

https://arxiv.org/abs/2203.00386

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-09-30 09:04:20

2023-03-22 08:19:57

微軟AIOpenAI

2023-12-20 08:10:58

2021-02-19 08:13:44

SQL日期維度表

2023-05-04 07:12:02

Linuxshell人工智能

2022-05-12 13:39:48

AI研究模型

2024-12-05 15:45:34

字節(jié)跳動(dòng)豆包

2022-01-07 09:46:55

模型人工智能深度學(xué)習(xí)

2021-05-10 17:40:14

AI 數(shù)據(jù)人工智能

2025-04-24 10:31:54

2022-02-17 20:26:39

微信圖片搜索

2022-06-06 14:29:20

圖像模型任務(wù)

2022-03-31 11:41:02

DDoS網(wǎng)絡(luò)安全關(guān)鍵信息基礎(chǔ)設(shè)施

2022-08-19 14:46:16

視覺框架

2015-06-04 12:53:18

2023-08-24 21:52:52

AI模型Meta

2019-06-23 17:30:07

AI 數(shù)據(jù)人工智能

2018-03-27 13:33:48

百度

2022-11-17 12:09:51

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 放个毛片看看 | 久久久久国产一级毛片高清网站 | 亚洲高清在线 | 精品欧美乱码久久久久久1区2区 | 国产极品粉嫩美女呻吟在线看人 | 久久精品a| av网址在线| 91精品久久久 | 91精品久久久久久久久 | 亚洲九九| 久久国产成人精品国产成人亚洲 | 一区二区三区在线 | 免费观看一级视频 | 日韩免费高清视频 | 久久91精品国产 | 日日骚网 | 狠狠av| 日韩免费电影 | 亚洲交性 | 国产精品久久久久久久久久不蜜臀 | 怡红院怡春院一级毛片 | 亚洲一区二区三区四区五区中文 | 亚洲69p| 国产精品美女久久久久久久网站 | 欧美在线a | 日本久久黄色 | 日韩在线观看一区 | 综合自拍 | 色久在线| 国产亚洲网站 | 一区二区三区中文字幕 | 99re6在线视频精品免费 | 做a网站 | 中文久久 | 在线视频一区二区 | 国产精品一区一区 | 国产精品无码久久久久 | 亚洲永久入口 | 日日噜噜夜夜爽爽狠狠 | 天天爱av | 特黄毛片视频 |