成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

清華大學、DeepMind等指出現有小樣本學習方法并不穩定有效,提出評價框架

人工智能 新聞
以 GPT-3 為代表的預訓練語言模型的發展,引發對小樣本自然語言理解任務的極大關注。各種方法不斷發展并展現出日漸強大的小樣本自然語言理解性能。然而,來自清華大學、DeepMind 等團隊的研究者近期的一項研究指出:相同基準再評估結果表明,現有小樣本學習方法并不足夠穩定有效,小樣本自然語言理解發展尚面臨巨大挑戰!

評價準則的差異極大阻礙了已有小樣本學習方法基于統一的標準公平比較,也無法客觀評價該領域的真實進展。近期,來自清華大學、DeepMind 等團隊研究者在論文《FewNLU: Benchmarking State-of-the-Art Methods for Few-Shot Natural Language Understanding》中指出:現有小樣本學習方法并不穩定有效,且目前已有工作不存在單一的小樣本學習方法能夠在大多數 NLU 任務上取得優勢性能。小樣本自然語言理解領域發展依然面臨著嚴峻的挑戰!該工作被 ACL2022 主會接收。

  • 論文地址:https://arxiv.org/abs/2109.12742
  • 項目地址:https://github.com/THUDM/FewNLU
  • Leaderboard 地址:https://fewnlu.github.io/ 

本文貢獻如下:

(1) 該研究提出了一個新的小樣本自然語言理解評價框架 FewNLU,并且從三個關鍵方面(即測試集小樣本學習性能、測試集和驗證集相關性、以及穩定性) 量化評估該評價準則的優勢。 (2) 研究者對該領域相關工作進行重新評估,結果表明:已有工作未準確估計現有小樣本學習方法的絕對性能和相對差距;目前尚不存在單一在大多數 NLU 任務取得優勢性能的方法;不同方法的增益是優勢互補的,最佳組合模型的性能接近于全監督 NLU 系統等關鍵結論。(3) 此外本文提出 FewNLU,并構建了 Leaderboard,希望幫助促進小樣本自然語言理解領域未來研究工作的發展。

小樣本自然語言理解評價框架

模型選擇對小樣本學習是必要的嗎?

初步實驗結果表明 (如表格 1 所示),就如已有大多數工作那樣基于一組(根據既往實驗經驗) 預先固定的超參數的實驗設置,并不是最佳選擇。實驗條件的細微變化或者擾動都會帶來性能的急劇波動。基于小的驗證集在不同實驗中分別進行模型選擇是不可或缺的。

小樣本自然語言理解評價框架

基于上述結論,本文為小樣本自然語言理解提出一種更穩健且有效的評價框架,如算法 1 所示。

該評價框架中有兩個關鍵設計選擇,分別是如何構建數據拆分以及確定關鍵搜索超參數。

如何構建數據拆分?

本文首先提出數據拆分構建的三個關鍵指標: (1) 最終測試集小樣本學習性能、 (2) 測試集和驗證集關于一個超參數空間分布的相關性、以及 (3) 關于實驗執行次數的穩定性。

基于此,本文對多種不同的數據拆分策略進行了量化實驗和討論,包括 (1) K 折交叉驗證 (K-Fold CV)[2], (2) 最短描述距離(MDL)[2],(3) Bagging [9], (4) 隨機采樣策略 (5) 模型指導的拆分策略 (6) 以及本文提出的多次數據劃分(Multi-Splits)。

實驗結果如表格 2、3 和圖 1 所示。表格 2、3 的實驗結果表明:從小樣本性能和相關性看,多次數據劃分 (Multi-Splits) 是比其他幾個基準方案更好的數據拆分策略。 

此外,由圖 1 可知,Multi-Splits 的優勢還源于增大執行次數 K 的取值并不會對訓練集和驗證集的數據量產生影響,相反會進一步增加該結果的置信度,故實驗過程中總可以選擇盡可能增大 K 的取值。然而對于 CV 和 MDL,較大的 K 值會導致失敗(Failure Mode),較小的 K 值導致高隨機性不穩定的結果;同時在實踐中很難先驗地知道應該如何取值。故 Multi-Splits 是更具實際使用意義的數據拆分策略。

小樣本學習方法重新評價

基于統一的評價框架下,本文對目前已有最先進的小樣本學習方法進行重新評價。本文還嘗試探索了多種不同小樣本學習方法和技術組合可以實現的最佳性能(如表格 5 中的 "Our Best" 所示)。重新評價實驗結果如表格所示。

重新評估結果可揭示如下關鍵結論:

  • 結論 1: 小樣本學習方法的絕對性能和相對性能差異,在先前文獻中未被準確估計。此外小樣本方法(例如 ADAPET)在像 DeBERTa 這樣的大型模型上的優勢會顯著降低。半監督小樣本方法(例如 iPET 和 Noisy Student)增益在較大的模型也可以保持一致性。
  • 結論 2: 不同小樣本學習方法的增益在很大程度上是互補的。通過將目前各種先進方法加以組合,它們可以在很大程度上實現優于任意單一方法的小樣本學習性能。目前最佳組合方法的小樣本學習性能,接近 RoBERTa 上實現的全監督性能;然而和目前 DeBERTa 上實現的最優全監督性能相比,它仍然存在較大的差異性。
  • 結論 3: 目前已有相關工作中不存在單一的小樣本學習方法能夠在大多數 NLU 任務上取得主導性優勢性能。這為未來進一步開發出具有跨任務一致性和魯棒性的小樣本學習方法提出新的挑戰。


責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-04-19 11:12:46

區塊鏈貨幣加密貨幣

2025-01-06 12:46:16

模型數據訓練

2025-02-10 08:40:00

訓練數據模型

2010-09-15 13:27:33

無線信號不穩定

2021-10-11 17:27:50

框架計算機開發

2011-06-29 14:39:29

網站排名

2011-04-01 15:02:43

路由器鏈路

2022-11-11 15:16:36

機器學習開源

2021-02-09 08:31:38

線下環境 stable

2010-09-14 13:17:11

無線網絡不穩定

2023-05-04 07:39:33

2021-11-15 10:00:22

模型人工智能NLP

2013-09-27 17:29:16

清華大學IT運維RIIL

2021-07-08 15:39:50

機器學習人工智能計算

2011-10-26 10:57:56

EqualLogic戴爾存儲

2010-04-15 15:54:24

無線信號不穩定

2011-10-25 09:47:59

服務器

2010-04-06 10:42:59

無線網絡不穩定

2009-12-25 09:39:08

ADSL MODEM

2022-01-26 00:25:30

比特幣黃金加密貨幣
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 天堂免费看片 | 少妇久久久久 | 四虎成人免费电影 | 亚洲视频一区二区三区四区 | 久久精品免费一区二区 | 一级欧美黄色片 | 亚洲精品一区二区 | 91亚洲精品国偷拍自产在线观看 | 免费av观看 | 91免费视频观看 | 国产一区二区免费在线 | 精品欧美一区二区三区精品久久 | 国产小视频精品 | 亚洲精品一区二区三区中文字幕 | 色综合久久天天综合网 | 天天干天天插天天 | 日本欧美国产在线观看 | 国产馆 | 国产精品久久久久国产a级 欧美日本韩国一区二区 | 国产激情视频 | 国产一区二区精 | 精品视频在线观看 | 久久精品中文字幕 | 日韩毛片中文字幕 | aaa国产大片| 日韩爱爱网 | 日韩国产欧美一区 | 国产农村一级片 | 伊人狼人影院 | av夜夜操 | 国产精品久久久久久久一区探花 | 红桃视频一区二区三区免费 | 神马久久久久久久久久 | 欧美一区二区三区在线看 | 天天插天天操 | aaa一区 | 国产精品无码专区在线观看 | 成年网站在线观看 | 欧美日韩精品 | 精品一区二区在线视频 | 亚洲视频免费在线 |