成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用Transformer進(jìn)行圖像語義分割,性能超最先進(jìn)的卷積方法

新聞 人工智能
Transformer跨界計(jì)算機(jī)視覺領(lǐng)域真是越來越頻繁了、效果也越來越成功了!

 [[400873]]

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

正如大家所知,在進(jìn)行圖像語義分割時(shí),圖像被編碼成一系列補(bǔ)丁后往往很模糊,需要借助上下文信息才能被正確分割。

因此上下文建模對(duì)圖像語義分割的性能至關(guān)重要!

而與以往基于卷積網(wǎng)絡(luò)的方法不同,來自法國(guó)的一個(gè)研究團(tuán)隊(duì)另辟蹊徑,提出了一種只使用Transformer的語義分割方法。

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

該方法“效果拔群”,可以很好地捕捉圖像全局上下文信息!

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

要知道,就連取得了驕人成績(jī)的FCN(完全卷積網(wǎng)絡(luò))都有“圖像全局信息訪問限制”的問題。(卷積結(jié)構(gòu)在圖像語義分割方面目前有無法打破的局限)

而這次這個(gè)方法在具有挑戰(zhàn)性的ADE20K數(shù)據(jù)集上,性能都超過了最先進(jìn)的卷積方法!

[[400874]]最先進(jìn)的卷積方法">

不得不說,Transformer跨界計(jì)算機(jī)視覺領(lǐng)域真是越來越頻繁了、效果也越來越成功了!

那這次表現(xiàn)優(yōu)異的Transformer語義分割,用了什么不一樣的“配方”嗎?

使用Vision Transformer

沒錯(cuò),這次這個(gè)最終被命名為Segmenter的語義分割模型,主要基于去年10月份才誕生的一個(gè)用于計(jì)算機(jī)視覺領(lǐng)域的“新秀”Transformer:Vision Transformer,簡(jiǎn)稱ViT。

ViT有多“秀”呢?

ViT采用純Transformer架構(gòu),將圖像分成多個(gè)patches進(jìn)行輸入,在很多圖像分類任務(wù)中表現(xiàn)都不輸最先進(jìn)的卷積網(wǎng)絡(luò)。

缺點(diǎn)就是在訓(xùn)練數(shù)據(jù)集較小時(shí),性能不是很好。

Segmenter作為一個(gè)純Transformer的編碼-解碼架構(gòu),利用了模型每一層的全局圖像上下文。

基于最新的ViT研究成果,將圖像分割成塊(patches),并將它們映射為一個(gè)線性嵌入序列,用編碼器進(jìn)行編碼。再由Mask Transformer將編碼器和類嵌入的輸出進(jìn)行解碼,上采樣后應(yīng)用Argmax給每個(gè)像素一一分好類,輸出最終的像素分割圖。

下面是該模型的架構(gòu)示意圖:

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

解碼階段采用了聯(lián)合處理圖像塊和類嵌入的簡(jiǎn)單方法,解碼器Mask Transformer可以通過用對(duì)象嵌入代替類嵌入來直接進(jìn)行全景分割。

效果如何

多說無益,看看實(shí)際效果如何?

首先他們?cè)贏DE20K數(shù)據(jù)集上比較不同Transformer變體,研究不同參數(shù)(正則化、模型大小、圖像塊大小、訓(xùn)練數(shù)據(jù)集大小,模型性能,不同的解碼器等),全方面比較Segmenter與基于卷積的語義分割方法。

其中ADE20K數(shù)據(jù)集,包含具有挑戰(zhàn)性的細(xì)粒度(fine-grained)標(biāo)簽場(chǎng)景,是最具挑戰(zhàn)性的語義分割數(shù)據(jù)集之一。

下表是不同正則化方案的比較結(jié)果:

他們發(fā)現(xiàn)隨機(jī)深度(Stochastic Depth)方案可獨(dú)立提高性能,而dropout無論是單獨(dú)還是與隨機(jī)深度相結(jié)合,都會(huì)損耗性能。

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

不同圖像塊大小和不同transformer的性能比較發(fā)現(xiàn):

增加圖像塊的大小會(huì)導(dǎo)致圖像的表示更粗糙,但會(huì)產(chǎn)生處理速度更快的小序列。

減少圖像塊大小是一個(gè)強(qiáng)大的改進(jìn)方式,不用引入任何參數(shù)!但需要在較長(zhǎng)的序列上計(jì)算Attention,會(huì)增加計(jì)算時(shí)間和內(nèi)存占用。

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

Segmenter在使用大型transformer模型小規(guī)模圖像塊的情況下更優(yōu):

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

(表中間是帶有線性解碼器的不同編碼器,表底部是帶有Mask Transformer作為解碼器的不同編碼器)

下圖也顯示了Segmenter的明顯優(yōu)勢(shì),其中Seg/16模型(圖像塊大小為16x16)在性能與準(zhǔn)確性方面表現(xiàn)最好。

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

最后,我們?cè)賮砜纯碨egmenter與SOTA的比較:

在最具挑戰(zhàn)性的ADE20K數(shù)據(jù)集上,Segmenter兩項(xiàng)指標(biāo)均高于所有SOTA模型!

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

(中間太長(zhǎng)已省略)

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

在Cityscapes數(shù)據(jù)集上與大多數(shù)SOTA不相上下,只比性能最好的Panoptic-Deeplab低0.8。

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

在Pascal Context數(shù)據(jù)集上的表現(xiàn)也是如此。

用Transformer進(jìn)行圖像語義分割,性能超<span><span><span><i style=最先進(jìn)的卷積方法">

剩余參數(shù)比較,大家有興趣的可按需查看論文細(xì)節(jié)。

論文地址:
https://www.arxiv-vanity.com/papers/2105.05633/

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2014-08-07 10:49:20

debugdebug技巧

2014-08-07 10:03:31

debug技巧原則

2022-01-12 17:53:52

Transformer數(shù)據(jù)人工智能

2013-06-08 09:23:20

2015-03-12 09:12:07

2024-11-21 16:06:02

2017-08-04 08:06:15

CVPR 2017論文圖像語義分割

2017-05-27 14:42:21

曙光服務(wù)器

2024-10-21 16:47:56

2020-11-30 12:32:40

PyTorch語義分割python

2015-02-26 11:14:18

2013-09-16 09:41:13

400G網(wǎng)絡(luò)處理器思科網(wǎng)絡(luò)處理器

2011-09-21 08:26:47

微軟Websense數(shù)據(jù)泄露

2016-02-22 18:22:17

視頻數(shù)據(jù)云平臺(tái)華為

2018-07-24 17:00:57

人工智能機(jī)器學(xué)習(xí)深度學(xué)習(xí)

2021-01-06 13:50:19

人工智能深度學(xué)習(xí)人臉識(shí)別

2024-10-08 08:19:19

2019-10-10 14:50:17

快手英偉達(dá)

2017-09-08 13:30:32

深度學(xué)習(xí)圖像識(shí)別卷積神經(jīng)網(wǎng)絡(luò)

2011-11-26 11:31:45

RADVISION遠(yuǎn)程
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 亚洲综合一区二区三区 | 毛片一级片| h片在线观看网站 | 亚洲精品乱码久久久久久按摩 | 在线成人www免费观看视频 | 日韩中文在线观看 | 亚洲精品资源 | 激情欧美一区二区三区中文字幕 | 欧美日韩中 | 午夜午夜精品一区二区三区文 | 日本特黄a级高清免费大片 成年人黄色小视频 | 狠狠做六月爱婷婷综合aⅴ 国产精品视频网 | 99久久影院 | 日本特黄a级高清免费大片 成年人黄色小视频 | 成人久久18免费网站 | 欧美精品日韩精品 | 欧美另类视频 | 久久综合欧美 | 午夜激情视频在线 | 黄色av观看 | 亚洲国产一区二区三区在线观看 | av一二三区 | 久久久www成人免费无遮挡大片 | 日本精品一区二区三区在线观看视频 | 日韩精品在线视频 | 日韩在线观看网站 | 国产精品美女久久久久久久网站 | 99热在线播放 | 久久av网站| 精品无码久久久久久久动漫 | 国产一级黄色网 | 国产精品99久久久久久久vr | 国产精品123区 | 中文在线a在线 | 亚洲国产欧美一区二区三区久久 | 国产黄色大片 | 999国产视频 | 欧美日韩三级 | 自拍在线 | 在线观看中文字幕亚洲 | 黄色免费网 |