成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

顛覆三觀!谷歌最新研究:用性能差的模型計算「相似度」反而更準?

人工智能 新聞
計算圖像感知相似度,模型分類準確率還不能太高!

計算圖像之間的相似度是計算機視覺中的一個開放性問題。

在圖像生成火遍全球的今天,如何定義「相似度」,也是評估生成圖像真實度的關鍵問題。

雖然當下有一些相對直接的方法來計算圖像相似度,比如測量像素上的差異(如FSIM, SSIM),但這種方法獲得的相似性差異和人眼感知到的差異相去深遠。

深度學習興起后,一些研究人員發現一些神經網絡分類器,如AlexNet, VGG, SqueezeNet等在ImageNet上訓練后得到的中間表征可以用作感知相似性的計算。

也就是說,embedding比像素更貼近人對于多張圖像相似的感知

圖片

當然,這只是一個假設

最近Google發表了一篇論文,專門研究了ImageNet分類器是否能夠更好地評估感知相似度。

圖片

論文鏈接:?https://openreview.net/pdf?id=qrGKGZZvH0?

雖然已經有工作在2018年發布的BAPPS數據集基礎上,在第一代ImageNet分類器上研究了感知評分(perceptual scores),為了進一步評估準確率和感知評分的相關性,以及各種超參數的影響,論文中增加了對最新ViT模型的研究結果。

準確率越高,感知相似度越差?

眾所周知,通過在ImageNet上的訓練學到的特性可以很好地遷移到許多下游任務,提升下游任務的性能,這也使得在ImageNet預訓練成了一個標準操作。

此外,在ImageNet上取得更高的準確率通常意味著在一組多樣化的下游任務上有更好的性能,例如對破損圖片的魯棒性、對out-of-distribution數據的泛化性能和對較小分類數據集的遷移學習。

但在感知相似度計算上,一切好像反過來了。

在ImageNet上獲得高精度的模型反而具有更差的感知分數,而那些成績「中游」的模型在感知相似度任務上性能最好。

圖片

ImageNet 64 × 64驗證精度(x 軸) ,64 × 64 BAPPS 數據集上的感知評分(y 軸),每個藍點代表一個 ImageNet 分類器

可以看到,更好的 ImageNet 分類器在一定程度上實現了更好的感知評分,但超過某一閾值,提高準確性反而會降低感知評分,分類器的準確度適中(20.0-40.0) ,可以獲得最佳的感知評分

文中同時研究了神經網絡超參數對感知分數的影響,如寬度、深度、訓練步數、權重衰減、標簽平滑和dropout

對于每個超參數,存在一個最優精度,提高精度可以改善感知評分,但這個最優值相當低,并且在超參數掃描中很早就可以達到。

除此之外,分類器精度的提高會導致更差的感知評分。

舉個例子,文中給出了感知評分相對于兩個超參數的變化: ResNets中的訓練steps和ViTs中的寬度。

圖片

提前停止的ResNets在6, 50和200的不同深度設置下獲得了最佳感知評分

ResNet-50和ResNet-200的感知評分在訓練的前幾個epoch達到最高值,但在峰值后,性能更好的分類器感知評分值下降更為劇烈。

結果顯示,ResNets的訓練與學習率調整可以隨step增加提升模型的準確性。同樣,在峰值之后,模型也表現出與這種逐步提高的精度相匹配的感知相似度評分逐步下降。

ViTs由應用于輸入圖像的一組Transformer塊組成,ViT模型的寬度是單個Transformer塊的輸出神經元數,增加寬度可以有效提高模型的精度。

研究人員通過更換兩個ViT變體的寬度,獲得兩個模型B/8(即Base-ViT模型,patch尺寸為4)和L/4(即Large-ViT模型) ,并評估準確性和感知評分。

結果還是與提前停止的ResNets觀察結果相似,精度較低的較窄的ViT比默認寬度表現得更好。

圖片

不過ViT-B/8和 ViT-L/4的最佳寬度分別是它們默認寬度的6% 和12% ,論文中還提供了對于其他超參數的更詳細實驗列表,如寬度、深度、訓練步數、權重衰減、標簽平滑和跨 ResNet 和 ViTs 的dropout。

所以想提升感知相似度,那策略就簡單了,適當降低準確率即可。

圖片

通過縮小ImageNet模型來提高感知評分,表格中的值表示通過在帶有默認超參數的模型上縮放給定超參數的模型而獲得的改進

根據上述結論,文中提出了一個簡單的策略來改善架構的感知評分:縮小模型來降低準確性,直至達到最佳的感知得分。

在實驗結果中還可以看到,通過在每個超參數上縮小每個模型所獲得的感知評分改進。除了 ViT-L/4,提前停止可以在所有架構中產生最高的評分改進度,并且提前停止是最有效的策略,不需要進行費時的網格搜索。

全局感知函數

在先前的工作中,感知相似度函數使用跨圖像空間維度的歐氏距離來計算。

這種方式假定了像素之間存在直接對應關系,但這種對應關系可能不適用于彎曲、平移或旋轉的圖像。

在這篇文章中,研究人員采用了兩個依賴于圖像全局表示的感知函數,即捕捉兩個圖像之間的風格相似性的神經風格遷移工作中的風格損失函數和歸一化的平均池距離函數。

樣式損失函數比較兩幅圖像之間的通道間cross-correlation矩陣,而平均池函數比較空間平均的全局表示。

圖片

全局感知函數一致地改善了兩個網絡訓練的默認超參數和ResNet-200作為訓練epoch函數的感知評分

文中還探討了一些假設來解釋精確度和感知評分之間的關系,并得出了一些額外的見解。

例如,沒有常用的skip連接的模型準確性也與感知評分成反比,與接近輸入的層相比,更接近輸出的層平均具有較低的感知評分。

同時還進一步探索了失真靈敏度(distortion sensitivity)、 ImageNet類別粒度和空間頻率靈敏度。

總之,這篇論文探討了提高分類精度是否會產生更好的感知度量的問題,研究了不同超參數下ResNets和ViTs上精度與感知評分之間的關系,發現感知評分與精度呈現倒U型關系,其中精度與感知評分在一定程度上相關,呈現倒U型關系。

最后,文章詳細討論了精度與感知評分之間的關系,包括skip連接、全局相似函數、失真敏感度、分層感知得分、空間頻率敏感度和ImageNet類別粒度。

雖然對于ImageNet精確度和感知相似度之間的權衡現象的確切解釋仍然是一個謎,但這篇論文向前邁出了第一步。

責任編輯:張燕妮 來源: 新智元
相關推薦

2014-11-11 16:28:21

浪潮高性能計算煤炭研究

2016-11-13 23:11:15

2021-08-05 07:58:22

內存SSD設備

2009-12-11 10:34:58

谷歌Chrome OS

2024-04-07 07:46:00

谷歌架構

2013-07-01 09:57:57

iPhone

2023-08-23 12:59:35

2020-09-22 15:17:59

谷歌Android技術

2024-06-11 07:05:34

2018-01-13 23:17:55

谷歌研究報告團隊建設

2009-10-21 14:04:46

2025-02-03 10:04:47

擴散模型數據分布

2023-01-20 08:42:02

2023-10-10 12:47:07

谷歌論文

2017-05-02 21:03:04

深度學習幾何學人工智能

2017-05-02 09:54:03

深度學習幾何學計算機

2025-01-14 13:51:44

2023-03-24 09:17:04

微服務架構谷歌

2009-11-23 09:17:29

Chrome OS云計算

2014-08-14 10:40:55

Android
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲一区免费视频 | 瑟瑟视频在线看 | 精品国产乱码久久久久久丨区2区 | 国产亚洲精品久久久久动 | 99精品免费久久久久久日本 | 久久久久久国产精品mv | 欧美精品第一页 | 久久国产免费 | 午夜电影网址 | 日韩精品a在线观看图片 | 免费黄色大片 | 欧美精品一区二区三区蜜桃视频 | 天天躁人人躁人人躁狂躁 | 亚洲精品二三区 | 91亚洲国产成人精品一区二三 | 国产精品久久久久久久久久久久久久 | 亚洲欧洲成人av每日更新 | 精品www| 亚洲综合婷婷 | 九九伊人sl水蜜桃色推荐 | 成人在线一级片 | 精品综合久久久 | 黄网站在线观看 | 午夜av成人| 国产精品永久久久久久久www | 黄色在线免费观看视频网站 | 精品一级| 欧美xxxx色视频在线观看免费 | 日韩成人在线播放 | 成人免费一区二区三区视频网站 | 中文字幕亚洲视频 | 337p日本欧洲亚洲大胆 | 午夜影院普通用户体验区 | 99精品在线免费观看 | 瑟瑟视频在线看 | 亚洲黄色一区二区三区 | 午夜国产| 欧美成人a∨高清免费观看 91伊人 | 99色在线视频 | 97视频在线免费 | 久久99精品久久久97夜夜嗨 |