成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

新聞 人工智能
來自清華大學、商湯科技等機構的研究者們提出一種簡潔而有效的梯度形式——UniGrad,不需要復雜的 memory bank 或者 predictor 網絡設計,也能給出 SOTA 的性能表現。

 [[443228]]

當下,自監督學習在無需人工標注的情況下展示出強大的視覺特征提取能力,在多個下游視覺任務上都取得了超過監督學習的性能,這種學習范式也因此被人們廣泛關注。

在這股熱潮中,各式各樣的自監督學習方法不斷涌現,雖然它們大多都采取了孿生網絡的架構,但是解決問題的角度卻差異巨大,這些方法大致可以分為三類:以 MoCo、SimCLR 為代表的對比學習方法,以 BYOL、SimSiam 為代表的非對稱網絡方法,和以 Barlow Twins、VICReg 為代表的特征解耦方法。這些方法在對待如何學習特征表示這個問題上思路迥異,同時由于實際實現時采用了不同的網絡結構和訓練設置,研究者們也無法公平地對比它們的性能。

因此,人們自然會產生一些問題:這些方法之間是否存在一些聯系?它們背后的工作機理又有什么關系?更進一步的,具體是什么因素會導致不同方法之間的性能差異?

為此,來自清華大學、商湯科技等機構的研究者們提出一個統一的框架來解釋這些方法。相較于直接去比較它們的損失函數,他們從梯度分析的角度出發,發現這些方法都具有非常相似的梯度結構,這個梯度由三部分組成:正梯度、負梯度和一個平衡系數。其中,正負梯度的作用和對比學習中的正負樣本非常相似,這表明之前提到的三類方法的工作機理其實大同小異。更進一步,由于梯度的具體形式存在差異,研究者通過詳細的對比實驗分析了它們帶來的影響。結果表明,梯度的具體形式對性能的影響非常小,而關鍵因素在于 momentum encoder 的使用。

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

論文鏈接:https://arxiv.org/pdf/2112.05141.pdf

在這個統一框架的基礎上,研究者們提出了一種簡潔而有效的梯度形式——UniGrad。UniGrad 不需要復雜的 memory bank 或者 predictor 網絡設計,也能給出 SOTA 的性能表現。在多個下游任務中,UniGrad 都取得了不錯的遷移性能,而且可以非常簡單地加入其它增強技巧來進一步提升性能。

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

圖 1 三類自監督方法與 UniGrad 的對比

統一框架

本節將分析不同方法的梯度形式,首先給出三類方法各自的梯度形式,然后歸納其中的共性結構。從梯度的角度讀者也可以更好地理解不同類型的方法是如何工作的。為了方便表述,作者用u表示當前樣本特征, v表示其它樣本特征,添加下標 ,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表示不同的 augmented view,添加上標 ,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表示孿生網絡中 online 或者 target 分支產生的特征。

對比學習方法

對比學習方法希望當前樣本

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

拉近與正樣本

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

的距離,提升與負樣本

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

的距離,一般會使用以下的 InfoNCE Loss:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

具體實現時,兩類代表性方法 MoCo 和 SimCLR 有許多差異:MoCo 使用了 momentum encoder 作為 target branch 的編碼器,而 SimCLR 讓 target branch 與 online branch 共享參數;MoCo 使用 memory bank 來存儲負樣本,而 SimCLR 使用當前 batch 中其它樣本作為負樣本。

通過對 SimCLR 梯度的略微化簡(關閉 target branch 的梯度反傳,不會影響最終性能),對比學習方法的梯度可以統一成下面的形式:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

在這個式子中,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

的作用是將正樣本拉近,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

的作用是將負樣本推離,因此作者將這兩項分別稱為正梯度和負梯度。

非對稱網絡方法

非對稱網絡方法只使用正樣本來學習特征,并且通過非對稱網絡的設計來避免平凡解。這類方法一般會在 online branch 后增加一個 predictor 網絡

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

,同時關閉 target branch 的梯度反傳,最終使用下面的損失函數

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

這類方法中,作為代表的 BYOL 和 SimSiam 非常相似,唯一的差異就是是否使用 momentum encoder。雖然這類方法表現出非常優異的性能,人們對它們的工作原理卻所知甚少。最近 DirectPred 這篇文章從網絡優化的動態過程出發對它們做了初步的解釋,這篇工作觀察到 predictor 網絡的特征空間會逐漸與特征的相關性矩陣的特征空間對齊,基于此,DirectPred 提出了 predictor 網絡的一種解析解。在此工作的基礎上,作者進一步展示出非對稱網絡方法與其它方法的聯系,特別地,它們的梯度可以推導為

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

其中

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是 predictor 網絡的解析解??梢钥吹剑鲜酵瑯又饕袃蓚€部分:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是正梯度,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是負梯度。

粗看起來這個結果非常反直覺:損失函數中沒有使用負樣本,但是梯度中卻出現了負梯度。實際上,這些負樣本來自于 predictor 在優化過程中學習到的信息。根據 DirectPred 的結論,predictor 的特征空間會和相關性矩陣的特征空間逐漸對齊,因此 predictor 在訓練過程中很可能會將相關性矩陣的信息編碼到網絡參數中,在反傳時,這些信息就會以負樣本的形式出現在梯度中。

特征解耦方法

特征解耦方法旨在減小各特征維度之間的相關性來避免平凡解。由于不同工作采用的損失函數在形式上差異很大,作者對它們分別進行討論。

Barlow Twins 采取如下損失函數:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

其中

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是兩個 augmented view 之間的相關性矩陣。該損失函數希望相關性矩陣上的對角線元素接近 1,而非對角線元素接近 0。

該損失函數的梯度形式為:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

作者首先將第一項替換為

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

,同時,原始的 Barlow Twins 對特征采取了 batch normalization,作者將其替換為

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

normalization,這些變換都不會影響到最終性能。

VICReg 在 Barlow Twins 的基礎上做了一些改動,為了去掉加在特征上的 batch normalization,它采取了如下損失函數:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

其對應的梯度形式為

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

通過對特征施加

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

normalization,作者可以去掉最后一項而不影響其性能。這樣,特征解耦方法的梯度形式就能統一為:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

該梯度形式依然包含兩項:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是正梯度,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

組成負梯度,它們分別來自相關性矩陣中的對角線和非對角線元素。因此,特征解耦方法本質上和其它兩類方法非常相似,它們只是在損失函數中將正負樣本用不同的形式組合起來了。

統一形式

對比以上三類方法的梯度形式,作者發現它們都具有相似的結構:

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

其中,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

對應正樣本的特征,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是負樣本特征的加權平均,

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是平衡兩者的系數,這種相似的結構說明三類方法的工作機理非常接近。

性能對比

盡管結構相似,不同方法的具體梯度形式依然存在區別,而且 target branch 的類型、負樣本集合的構成也都不一樣,本節將通過對比實驗來探究對最終性能的主要影響因素。

梯度形式

為了方便對比,作者首先在各類方法內部進行化簡和對比,最終再對比不同方法。完整的實驗結果如表 1 所示。

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表 1 不同類型方法性能比較

表 1(ab) 展示了對比學習方法的結果。為了保持公平比較,SimCLR 采用了 momentum encoder,在這樣的情況下表現出了和 MoCo 相同的性能。在這里,SimCLR 只用了當前 batch 作為負樣本集合,MoCo 采用了 memory bank 作為負樣本集合,這說明在合適的訓練設置下,大量的負樣本并不是必須的。

表 1(c-e) 展示了非對稱網絡方法的結果。由于帶有 momentum encoder 的 SimSiam 就是 BYOL,這里只展示了 BYOL 的結果。表 1(cd) 分別是原始的 BYOL 和 DirectPred 形式的 BYOL,兩者的性能相當,這也和 DirectPred 的結論一致。表 1(e) 將正樣本梯度中的

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

替換為單位陣而沒有影響性能,因此,非對稱網絡方法的梯度形式可以統一成表 1(e) 中的形式。

表 1(f-j) 展示了特征解耦方法的結果。對 Barlow Twins 來說,表 1(g) 將正梯度中的矩陣 A 替換為單位陣,表 1(h) 將特征的 batch normalization 替換為

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

normalization,這些替換都不會導致性能下降;對 VICReg 來說,表 1(j) 去掉梯度中最后一項,同時加上

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

normalization,這對性能幾乎沒有影響。最后,比較表 1(hj),它們唯一的差異在于負樣本系數的計算方式,但是性能上卻差異很小,所以特征解耦方法的梯度形式可以統一成表 1(j) 中的形式。

最后,作者對比了三類方法的梯度,即表 1(bej) 的結果。在梯度結構中,正梯度的形式已經統一,平衡系數會通過搜索保持最優,唯一的差異就是負梯度形式,實驗結果表明不同的負梯度形式性能非常接近。還值得注意的是,表 1(ej) 的負樣本形式非常相似,區別在于表 1(e) 使用了之前所有樣本構成的負樣本集合,表 1(j) 只使用了當前 batch 集合,這也說明了負樣本集合的構建在自監督學習中不是最關鍵的因素。

Target Branch 類型

之前為了公平對比,作者對各類方法都使用了 momentum encoder,現在來研究不同類型的 target branch 對最終結果的影響,實驗結果如表 2 所示。

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表 2 Target branch 類型影響

如果 target branch 采取 stop-gradient 的類型,三類方法都表現出類似的性能,這和之前的結論是一致的;如果 target branch 采取 momentum-encoder 的類型,三類方法都能在之前的基礎上提升大約 2 個點,這說明 momentum encoder 對不同的方法都能帶來提升。

更進一步的,作者觀察到一些方法里只有正梯度利用到了 momentum encoder 的特征,于是他們嘗試對三類方法都只在正梯度中采用 momentum encoder 的特征。實驗結果表明這和全部梯度采用 momentum encoder 具有類似的性能表現。這說明對于自監督學習來說,一個緩慢更新的一致的更新目標是非常重要的。

最終方法

基于上述的統一框架,作者提出了一種簡潔有效的自監督方法(UniGrad):

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

其中

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

是相關性矩陣的滑動平均。UniGrad 本質上就是表 1(e) 的梯度形式,這種梯度不需要額外的 memory bank,也不需要設計額外的 projector,實驗表明無論是 linear evaluation 還是 transfer learning,它都能夠取得 SOTA 的實驗性能。

圖 2 從多個衡量指標的角度展示了不同方法的優化過程??梢钥吹?,不同方法的優化曲線沒有明顯的差異,這也說明了該方法和之前方法有著類似的工作機制。

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表 3 和表 4 展示了 UniGrad 的具體結果。UniGrad 自身能夠取得和之前方法相當的性能,并且能夠簡單地將之前的數據增強方式融合進來,進一步提升性能。在更長輪數的訓練中,UniGrad 也能取得不錯的性能。

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表 3 UniGrad 與數據增強方法結合的性能

一個框架統一Siamese自監督學習,清華、商湯提出有效梯度形式

表 4 長輪數下與之前方法的對比

 

責任編輯:張燕妮 來源: 機器之心Pro
相關推薦

2017-06-12 14:04:45

深度學習人工智能

2023-11-23 15:54:01

人工智能監督學習無監督學習

2022-11-29 15:38:01

學習框架編碼器數據

2023-03-09 14:04:00

谷歌研究

2022-05-17 16:38:40

數據訓練

2018-12-05 15:35:04

深度學習自我監督學習人工智能

2020-04-28 17:26:04

監督學習無監督學習機器學習

2021-07-07 17:19:07

人工智能代碼開源

2024-12-23 14:10:00

AI模型數據

2024-10-16 16:00:00

訓練AI

2021-11-08 22:42:51

機器學習監督學習數據

2019-11-17 22:26:36

數據無監督學習模型

2025-06-23 08:52:00

2022-05-06 12:13:55

模型AI

2020-08-16 11:34:43

人工智能機器學習技術

2020-08-14 11:00:44

機器學習人工智能機器人

2015-10-12 10:37:42

學習算法檢測

2019-10-14 10:40:03

機器學習人工智能非監督學習

2023-02-01 13:29:46

機器學習

2023-11-28 12:03:46

人工智能無監督學習算法
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美一级做性受免费大片免费 | 国产精品一区二区三区99 | 成人免费视频久久 | 一区二区三区欧美 | 精品免费国产一区二区三区四区介绍 | 久久久久久国 | 欧美在线一区二区三区 | 91久久精品国产91久久性色tv | 欧美一区二区在线观看 | 日本中文在线 | 国产亚洲精品美女久久久久久久久久 | 成人三区四区 | 国产高清在线视频 | 91视频国产一区 | 伊人焦久影院 | 久在线 | 精品欧美一区免费观看α√ | 龙珠z国语版在线观看 | 日本福利视频免费观看 | 欧洲毛片 | 成人性视频免费网站 | 一区二区三区四区国产精品 | 国产一区二区三区免费视频 | 国产成人99久久亚洲综合精品 | 色男人的天堂 | av日韩一区 | 国产精品久久久久久久久久 | 午夜电影网站 | 一区二区久久精品 | 极品销魂美女一区二区 | 免费观看黄色一级片 | 国产日韩一区二区三免费高清 | 人人人人干 | 91久久久久久 | 精品视频久久久 | 成人在线播放网站 | 高清国产午夜精品久久久久久 | 国产高清在线精品一区二区三区 | 超碰国产在线 | 国产精品一区二区不卡 | 国产一区中文字幕 |