成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

多模態再次統一!Meta發布自監督算法data2vec 2.0:訓練效率最高提升16倍!

人工智能 新聞
效率更高的多模態自監督學習框架data2vec 2.0來啦!

近幾年人工智能領域的突破大多由自監督學習推動,比如BERT中提出的MLM (Masked Language Model) ,通過將文本中的部分單詞遮蓋后重新預測,使得海量無標記文本數據也能用來訓練模型,自此開啟了大規模預訓練模型的新時代。但自監督學習算法也有明顯的局限性,通常只適用于單一模態(如圖像、文本、語音等)的數據,并且需要大量的算力從海量數據中進行學習。相比之下,人類的學習效率要顯著高于當前的AI模型,并且可以從不同類型的數據中進行學習。

2022年1月,Meta AI發布了自監督學習框架data2vec,將三個模態的數據(語音、視覺和文本)通過一個框架整合起來,大有一統多模態的趨勢。最近Meta AI發布了data2cec 2.0版本,主要在性能方面對上一代進行了改進:在精度相同的情況下,訓練速度相比其他算法最高提升了16倍!

圖片

論文鏈接:??https://ai.facebook.com/research/publications/efficient-self-supervised-learning-with-contextualized-target-representations-for-vision-speech-and-language

代碼鏈接:??https://github.com/facebookresearch/fairseq/tree/main/examples/data2vec

data2vec 1.0

目前來說,大部分機器學習模型仍然是基于有監督學習的模式,需要有專門的標注人員對目標數據打標簽,但對于某些任務來說(比如地球上的幾千種人類語言),收集標注數據是不可行的。

相比之下,自監督學習不需要告訴模型正確和錯誤,而是讓機器通過觀察世界來學習圖像、語音和文本的結構。相關的研究成果促進了語音(如,wave2vec 2.0)、計算機視覺(例如,掩碼自編碼器)和自然語言處理(例如,BERT)等領域的發展。

data2vec的主要思路就是先建立一個教師網絡,首先計算來自圖像、文本或語音的目標表征。然后對數據進行掩碼遮蓋掉部分輸入,并用一個學生網絡重復該過程預測教師模型得到的表征。

圖片

也就是說,學生模型只能在接受「不完整輸入信息」的同時預測「完整輸入數據」的表示。為了保證兩個模型的一致性,二者的參數時共享的,但在訓練初期會讓Teacher模型的參數更新更快。在實驗結果上,data2vec在語音、視覺、文本等任務上對比baseline模型性能提升明顯。?

data2vec 2.0

data2vec提出了一個通用的自監督學習框架統一了語音、視覺和語言三個模態數據的學習,而data2vec2.0主要解決的痛點就是構建自監督模型需要大量的GPU做算力支撐才能完成訓練。與最初的 data2vec 算法類似,data2vec 2.0預測數據的上下文化的表征(contextualized representations),或是神經網絡的層次,而非預測圖像的像素、文本段中的詞或語音。

圖片

與常見的其他算法不同,這些所謂的目標表征是上下文化的,這意味著算法需要將整個訓練示例考慮在內。

比如說,模型學習單詞 bank 的表征是基于包含bank的整個句子,從而更容易推算出單詞的正確含義,比如區分具體指代「金融機構」還是「河邊的土地」。研究人員認為上下文化的目標會促進更豐富的學習任務,并使 data2vec 2.0比其他算法學習得更快。

data2vec 2.0通過以下三種方式提高了原始 data2vec 算法的效率:

1、為特定訓練樣例構建目標表征,并將該表征重用在掩碼版本上。在掩碼版本中,訓練樣例中的不同部分會被隨機隱藏。隨后兩個版本學到的表征都會輸入到學生模型中,為不同的掩碼版本預測相同的上下文化的目標表征,從而有效地分攤了創建目標表征所需的計算量。

2、類似于掩碼自編碼器(masked autoencoder, MAE),學生模型中的編碼器網絡并不運訓練樣例中的空白部分(blanked out)。在圖像實驗中,大約80%的部分都是空白,從而顯著節省了計算周期。

3、使用了一個更有效的解碼器模型,不再依賴于Transformer網絡,而是依賴于一個多層卷積網絡。

實驗部分

為了更直觀地理解 data2vec 2.0 比 data2vec 和其他同類算法的效率要高多少,研究人員在計算機視覺、語音和文本任務相關的基準測試中進行了廣泛的實驗。實驗中主要考慮最終的精確度以及預訓練模型所需的時間,實驗環境都是在相同的硬件上(GPU 的型號、數量等)來測量算法的運行速度。

圖片

在計算機視覺任務上,研究人員在標準 ImageNet-1K 圖像分類基準上評估了 data2vec 2.0,模型通過該數據集可以學習圖像表征。實驗結果顯示,data2vec 2.0可以等同于掩碼自編碼器(MAE)的準確性,但是速度要快16倍。

如果繼續給data2vec 2.0算法更多的運行時間,它可以達到更高的精度,并且仍然會比MAE的速度快。

圖片

在語音任務上,研究人員在 LibriLanguage 語音識別基準上進行了測試,它的準確性是 wave2vec 2.0的11倍以上。

圖片

對于自然語言處理任務,研究人員在通用語言理解評估(GLUE)基準上評估了 data2vec 2.0,僅需一半的訓練時間即可達到與 BERT 的重新實現 RoBERTa 相同的精度。

圖片


責任編輯:張燕妮 來源: 新智元
相關推薦

2022-01-21 15:33:56

架構模型AI

2023-07-30 16:05:44

多模態學習框架自然語言

2023-04-13 15:25:14

模型

2022-08-30 20:50:48

阿里云飛天人工智能

2025-03-17 09:12:00

訓練模型AI

2022-01-06 09:57:02

數據計算機神經網絡

2024-07-01 20:45:55

2024-07-30 09:14:13

模型數據

2024-07-04 10:23:51

2023-08-29 18:55:25

2023-06-27 13:49:00

GPU通信RLHF

2022-03-21 15:06:10

模型字節跳動框架

2022-03-21 17:56:59

大模型訓練訓練框架

2023-05-23 14:01:29

模型開源

2022-07-06 13:06:29

Meta神經網絡架構自監督學習

2024-04-19 09:26:43

人工智能Llama 3 模型Meta

2025-05-14 08:51:00

2024-08-26 09:00:00

2024-11-02 10:28:03

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 性生活毛片 | 夜久久 | 黑人精品欧美一区二区蜜桃 | 欧美一区二区三区免费在线观看 | 精品视频一区二区三区在线观看 | 精品av久久久久电影 | 亚洲中午字幕 | 天天干天天色 | 91视频.| 久久久久久久久一区 | 日韩久久久一区二区 | 天天天操 | 久久88 | 欧美影院 | 龙珠z在线观看 | 九九亚洲 | 久久久综合久久 | 成人99 | 无码一区二区三区视频 | 国产国产精品久久久久 | 亚洲成人免费av | 日韩精品激情 | 国产成人精品午夜 | 国产精品99999 | 精品久久久久久久久久久久久久久久久 | 999久久| 在线精品亚洲欧美日韩国产 | 午夜精品一区二区三区在线观看 | 中文字幕亚洲一区二区va在线 | 日韩视频在线观看中文字幕 | 欧美一级片 | 国产一区二区三区四区区 | 别c我啊嗯国产av一毛片 | 国产精品久久久久久久久久妇女 | 国产激情视频在线观看 | 国产99久久精品 | 久久69精品久久久久久国产越南 | 成人精品久久 | 91免费入口 | 精品欧美一区二区三区久久久 | 亚洲精品久久久蜜桃 |