成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Google發布24個小型BERT模型,直接通過MLM損失進行預訓練

新聞 人工智能
Google最新推出24個精簡的BERT模型供下載,趕在白色情人節之前為廣大NLP研究者送上一份厚禮。

 [[318598]]

Google最新推出24個精簡的BERT模型供下載,趕在白色情人節之前為廣大NLP研究者送上一份厚禮。

 

BERT勝在模型大,也敗在模型大!
BERT一出世就帶著「狂破11項記錄」的光環,用壓倒性的參數量暴力突圍。可以說,BERT的成功,成就成在模型大。但大,一方面成就了BERT,另一方面也成了它無法被更廣泛應用的障礙,這體現在三個方面。

障礙一:占資源

巨大的體積使得它必須占用巨大的存儲資源,而維護大量存儲資源的同時也在不斷消耗大量的能源。

障礙二:太耗時

BERT作者Jacob曾提到「BERT-Large模型有24層、2014個隱藏單元,在33億詞量的數據集上需要訓練40個Epoch,在8塊P100上可能需要1年」。

障礙三:費用高

有人曾經計算過,三大主流模型的訓練成本大概是:

  • BERT:1.2 萬美元
  • GPT-2:4.3 萬美元
  • XLNet:6.1 萬美元

為了解決上述問題,人們不斷推出精簡版BERT

Size matters。其實上述3個問題,源頭就在于Size,因此大家開始不斷的研究精簡版BERT。在資源有限的情況下,小體積的模型有著不言而喻的優勢。

DistillBERT:Hugging Face團隊在BERT的基礎上用知識蒸餾技術訓練出來的小型化BERT。模型大小減小了40%(66M),推斷速度提升了60%,但性能只降低了約3%。

ALBERT:通過改變模型架構,極大的降低了體積。最小的ALBERT只有12M,最大ALBERT-XXLarge有233M,而BERT-Base就有110M。不過雖然體積下去了,推理速度沒有太明顯的提升。

TinyBERT:用知識蒸餾的方法來壓縮模型。這個模型由華中科大和華為共同出品。

Google親自推出更小型BERT模型

就在昨天,Google更新了BERT的GitHub倉庫,發布了24個較小的BERT模型,僅限英語詞匯且不分大小寫。

該24個模型使用WordPiece masking進行訓練,直接通過MLM損失進行預訓練,可以通過標準訓練或最終任務提煉針對下游任務進行微調,在MLM蒸餾的更精細的預訓練策略方面極具優勢。

理論指導來自論文《Well-Read Students Learn Better: On the Importance of Pre-training Compact Models》。論文地址:https://arxiv.org/abs/1908.08962

小的BERT模型只需要按照原有BERT微調方式進行微調即可,只不過在由更大、更精準的teacher制作的知識蒸餾情況下最有效。

需要注意的是,本發行版中的BERT-Base模型僅是出于完整性考慮,在和原始模型相同的條件下進行了重新訓練。

GLUE分數:


24個小型BERT下載地址:https://storage.googleapis.com/bert_models/2020_02_20/all_bert_models.zip

 

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2020-03-17 09:42:00

谷歌開源機器學習

2023-02-28 13:09:53

訓練模型

2024-01-29 00:24:07

圖像模型預訓練

2017-08-09 10:02:12

NMT神經網絡自然語言處理

2025-06-13 09:29:51

2015-10-14 11:42:44

安全漏洞Chrome 46瀏覽器安全

2019-07-21 19:45:23

GitHub代碼開發者

2025-02-27 10:41:53

2024-11-04 00:24:56

2021-11-18 11:18:51

人工智能機器學習技術

2019-03-10 22:22:06

PyTorchKeras深度學習

2021-08-30 09:25:25

Bert模型PyTorch語言

2022-08-01 10:07:34

訓練模型圖片

2021-12-06 09:53:09

自然語言神經網絡人工智能

2025-04-14 00:22:00

2017-12-26 13:53:31

深度學習遷移學習

2023-09-04 19:19:36

語言模型LLM

2009-01-03 14:39:00

ibmdwXML

2020-10-26 15:48:32

NLP自然語言處理數據

2022-09-30 15:28:05

BERT語言模型自然語言
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 福利一区二区 | 欧美午夜一区 | 亚洲一区三区在线观看 | 韩日一区| 国产精品一区一区 | 欧美日韩成人影院 | 成人欧美一区二区三区黑人孕妇 | 99视频免费在线观看 | heyzo在线| 伊人91在线 | 国产一区免费 | 精品国产乱码一区二区三区a | 精品成人在线 | 男女激情网 | 天天天操天天天干 | 黑人久久久 | 成人网在线看 | 天天综合干 | 国产欧美一区二区三区久久人妖 | 毛片99| 精品一区二区三区在线观看国产 | 男女羞羞免费网站 | 国产成人久久精品一区二区三区 | 在线观看a视频 | 国产91久久精品一区二区 | 香蕉一区 | 欧美激情在线精品一区二区三区 | 中文字幕1区2区3区 亚洲国产成人精品女人久久久 | 国产成人av一区二区三区 | aa级毛片毛片免费观看久 | 红桃视频一区二区三区免费 | 大陆一级毛片免费视频观看 | 欧美一区二区三区精品 | 国产日韩精品在线 | 国产精品久久精品 | 中文精品视频 | 男女网站视频 | 亚洲精品99| 四虎成人精品永久免费av九九 | 亚洲高清视频在线 | 久久日本|