成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI自給自足!用合成數(shù)據(jù)做訓(xùn)練,效果比真實(shí)數(shù)據(jù)還好

人工智能 新聞
作者們分別從零樣本(zero-shot)、少樣本(few-shot)圖像分類、模型預(yù)訓(xùn)練(pre-training)與遷移學(xué)習(xí)三個(gè)??進(jìn)?了探討。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

AI生成的圖像太逼真,為什么不能拿來訓(xùn)練AI呢?

可別說,現(xiàn)在還真有人這么做了。

來自香港大學(xué)、牛津大學(xué)和字節(jié)跳動(dòng)的幾名研究人員,決定嘗試一下能否使用高質(zhì)量AI合成圖片,來提升圖像分類模型的性能。

為了避免AI合成的圖像過于單一、或是質(zhì)量不穩(wěn)定,他們還提出了幾類提升數(shù)據(jù)多樣性和可靠性的方法,幫助AI合成更好的數(shù)據(jù)集(來喂給AI的同類doge)

結(jié)果他們發(fā)現(xiàn),不僅效果不錯(cuò),有的AI在訓(xùn)練后,效果竟然比用真實(shí)數(shù)據(jù)訓(xùn)練還要好

圖片

目前這篇論文已經(jīng)被ICLR 2023收錄。

圖片

把AI生成的數(shù)據(jù)喂給AI

作者們分別從零樣本(zero-shot)、少樣本(few-shot)圖像分類、模型預(yù)訓(xùn)練(pre-training)與遷移學(xué)習(xí)三個(gè)??進(jìn)?了探討,并給出了提升數(shù)據(jù)多樣性與可靠性的方法。

零樣本圖像分類

零樣本(Zero-shot)圖像分類任務(wù),指沒有任何?標(biāo)類別的訓(xùn)練圖?,只有對(duì)?標(biāo)類別的描述。

作者們先是提出了一種名為語言增強(qiáng)(Language Enhancement,LE)的?法,用于增強(qiáng)合成數(shù)據(jù)多樣性。

具體來說,這種方法會(huì)給標(biāo)簽“擴(kuò)句”,如果原標(biāo)簽是簡單的“飛機(jī)”,那么經(jīng)過“擴(kuò)句”后的提示詞就會(huì)變成“一架盤旋在海灘和城市上空的白色飛機(jī)”。

隨后,還采用了一種叫做CLIP過濾器(CLIP Filter)的?法確保合成數(shù)據(jù)的可靠性,即過濾掉合成質(zhì)量不行的圖片,確保AI數(shù)據(jù)質(zhì)量過硬。?

在17個(gè)數(shù)據(jù)集上,相?此前效果最好的CLIP模型,相關(guān)??模型均獲得了顯著提升(4.31%/2.90%),展示了合成數(shù)據(jù)的有效性。

少樣本圖像分類

少樣本圖像(Few-shot)分類任務(wù),通常僅有極少數(shù)量(1~16張)的?標(biāo)類別圖?,與零樣本任務(wù)的區(qū)別是增加了類別與任務(wù)特定領(lǐng)域信息。

因此,作者們決定將域內(nèi)數(shù)據(jù)(in-domain)的知識(shí)?于圖像?成,即將少量的?標(biāo)類別圖??于噪聲疊加的初始狀態(tài)(Real Guidance),進(jìn)?步發(fā)揮?成模型的能?,從而進(jìn)?步提升性能。

圖片

圖片

預(yù)訓(xùn)練與遷移學(xué)習(xí)

模型預(yù)訓(xùn)練(pre-training)任務(wù),即將模型在?量數(shù)據(jù)上進(jìn)?訓(xùn)練,將訓(xùn)練后的模型作為“起始點(diǎn)”,來幫助提升下游任務(wù)的性能。

作者們利?合成數(shù)據(jù),對(duì)模型進(jìn)?了預(yù)訓(xùn)練,并對(duì)數(shù)據(jù)量、數(shù)據(jù)多樣性程度、預(yù)訓(xùn)練模型結(jié)構(gòu)和預(yù)訓(xùn)練?法進(jìn)?了實(shí)驗(yàn)研究。

最終發(fā)現(xiàn):

  1. ?合成數(shù)據(jù)進(jìn)?預(yù)訓(xùn)練。已經(jīng)可以達(dá)到甚?超越?真實(shí)數(shù)據(jù)預(yù)訓(xùn)練的效果。
  2. ?更?的數(shù)據(jù)量和數(shù)據(jù)多樣性的合成數(shù)據(jù),可以獲得更好的預(yù)訓(xùn)練效果。
  3. 從模型結(jié)構(gòu)和預(yù)訓(xùn)練?法來看,ViT-based模型(相比convolutional-based模型)、?監(jiān)督?法(相比有監(jiān)督?法)會(huì)更適合合成數(shù)據(jù)下的預(yù)訓(xùn)練。

圖片

論文認(rèn)為,利??成模型產(chǎn)?的合成數(shù)據(jù)來幫助圖像分類任務(wù)是可行的,不過也存在?定的局限性。

例如,如何處理特定任務(wù)的domain gap和數(shù)據(jù)多樣性之間的trade-off,以及如何更有效地利?潛在?窮量的合成圖??于預(yù)訓(xùn)練,都是需要進(jìn)一步去解決的問題。

作者介紹

圖片

一作何睿飛,香港大學(xué)在讀博士生@CVMI Lab,指導(dǎo)老師為齊曉娟老師,本科畢業(yè)于浙江大學(xué)竺可楨學(xué)院,研究方向是data-efficient learning, vision-language model, knowledge distillation, semi/self-supervised learning。CVMI Lab 正在招收計(jì)算機(jī)視覺與深度學(xué)習(xí)方向的博士生,感興趣的伙伴可以直接email老師!

對(duì)于將AI合成圖像用于預(yù)訓(xùn)練模型這件事,你還能想到更高效的方法嗎?

歡迎感興趣的小伙伴一起討論~

論文地址:
?https://arxiv.org/abs/2210.07574?

項(xiàng)目地址:
?https://github.com/CVMI-Lab/SyntheticData

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-12-25 07:46:01

Go語言循環(huán)

2024-03-25 11:36:32

2018-08-01 14:31:00

ELONCITY

2024-09-14 13:50:00

AI訓(xùn)練

2021-03-19 10:50:40

人工視覺人工智能 智能眼鏡

2022-06-13 11:18:08

合成數(shù)據(jù)AIML

2021-03-23 23:17:18

AI人工智能

2023-08-01 15:46:18

數(shù)據(jù)

2023-08-13 14:48:14

OpenAIAI模型

2022-04-17 23:13:02

人工智能元宇宙數(shù)據(jù)

2024-12-02 12:24:15

2024-04-18 08:38:15

LLM數(shù)據(jù)訓(xùn)練模型

2022-03-30 14:30:34

人工智能機(jī)器學(xué)習(xí)模型

2015-10-30 14:56:40

真實(shí)數(shù)據(jù)欺騙

2025-03-06 00:15:00

3D場景數(shù)據(jù)

2022-08-11 08:00:00

機(jī)器學(xué)習(xí)合成數(shù)據(jù)深度學(xué)習(xí)

2025-06-04 03:00:00

人工智能AI智能訓(xùn)練

2021-12-07 09:00:00

測試數(shù)據(jù)自動(dòng)化數(shù)據(jù)隱私

2021-12-30 09:40:33

CentOS家庭實(shí)驗(yàn)室Linux
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 久久国产美女视频 | 亚洲一区二区中文字幕 | 久久蜜桃av | 欧美一级一区 | 男人的天堂视频网站 | 亚洲三级在线观看 | 国产一区二区三区在线免费观看 | 久久国产精品视频观看 | 色999日韩| 精品中文在线 | 国产偷久久一级精品60部 | 久久色视频 | 色播视频在线观看 | 日韩成人免费视频 | 四虎影院在线观看免费视频 | 综合九九 | 国产亚洲一区二区三区 | 国产精品精品3d动漫 | 亚洲国产一区在线 | 999热在线视频 | 国产一区二区影院 | 夜夜草 | 日韩av美女电影 | 伊人久久综合影院 | 免费看av大片 | 在线观看黄色电影 | 丁香五月网久久综合 | 久久久久www | 欧美精品1区2区3区 免费黄篇 | 综合色在线 | 99精品99 | 日韩欧美一区二区三区 | 岛国av在线免费观看 | 日韩成人久久 | 色永久 | 久久精品一区二区视频 | 国产97在线视频 | 久久久成人免费视频 | 成年人在线视频 | 亚洲国产aⅴ成人精品无吗 国产精品永久在线观看 | 久久久久久久久久久久一区二区 |