成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

微軟英偉達發布5300億NLP模型“威震天-圖靈”,花了4480塊A100

新聞 人工智能
由微軟聯手英偉達推出,名叫威震天-圖靈自然語言生成模型(Megatron Turing-NLG)。

[[428336]]

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

5300億參數!全球最大規模NLP模型誕生。

微軟聯手英偉達推出,名叫威震天-圖靈自然語言生成模型(Megatron Turing-NLG)。

微軟英偉達發布5300億NLP模型“威震天-圖靈”,花了4480塊A100

據他們介紹,這樣的量級不僅讓它成為全球規模最大,同時也是性能最強的NLP模型。

訓練過程一共使用了4480塊英偉達A100 GPU,最終使該模型在一系列自然語言任務中——包括文本預測、閱讀理解、常識推理、自然語言推理、詞義消歧——都獲得了前所未有的準確率。

三倍規模于GPT-3

此模型簡稱MT-NLG,是微軟Turing NLG和英偉達Megatron-LM兩者的“繼任者”。

Turing NLG由微軟于2020年2月推出,參數為170億;Megatron-LM來自英偉達,2019年8月推出,參數83億。

它倆在當時分別是第一、二大規模的Transfomer架構模型。

我們都知道大參數規模的語言模型效果會更好,但訓練起來也很有挑戰性,比如:

  • 即使是最大容量的GPU,也存不下如此規模的參數;
  • 如果不特別注意優化算法、軟件和硬件堆棧,那么所需的大量計算操作可能會導致訓練時間過長。

那這個參數已是GPT-3三倍的MT-NLG又是如何解決的呢?

答案就是汲取“兩家”所長,融合英偉達最先進的GPU加速訓練設備,以及微軟最先進的分布式學習系統,來提高訓練速度。

微軟英偉達發布5300億NLP模型“威震天-圖靈”,花了4480塊A100

并用上千億個token構建語料庫,共同開發訓練方法來優化效率和穩定性。

具體來說,通過借鑒英偉達Megatron-LM模型的GPU并行處理,以及微軟開源的分布式訓練框架DeepSpeed,創建3D并行系統。

對于本文中這個5300億個參數的模型,每個模型副本跨越280個NVIDIA A100 GPU,節點內采用Megatron-LM的8路張量切片(tensor-slicing),節點間采用35路管道并行(pipeline parallelism)。

然后再使用DeepSpeed的數據并行性進一步擴展到數千個GPU。

最終在基于NVIDIA DGX SuperPOD的Selene超級計算機上完成混合精度訓練。

(該超級計算機由560個DGX A100服務器提供支持,每個DGX A100有8個 NVIDIA A100 80GB Tensor Core GPU,通過NVLink 和 NVSwitch相互完全連接)。

該模型使用了Transformer解碼器的架構,層數、hidden dimension和attention head分別為 105、20480和128。

訓練所用數據集包括近20萬本書的純文本數據集Books3、問答網站Stack Exchange、維基百科、學術資源網站PubMed Abstracts、ArXiv、維基百科、GitHub等等,這些都是從他們先前搭建的Pile數據集中挑出的質量較高的子集。

最終一共提取了2700億個token。

微軟英偉達發布5300億NLP模型“威震天-圖靈”,花了4480塊A100

五大任務上的準確度測試

開發者在以下5大任務上對MT-NLG進行了準確度測試。

  • 在文本預測任務LAMBADA中,該模型需預測給定段落的最后一個詞。
  • 在閱讀理解任務RACE-h和BoolQ中,模型需根據給定的段落生成問題的答案。
  • 在常識推理任務PiQA、HellaSwag和Winogrande中,每個任務都需要該模型具有一定程度的常識了解。
  • 對于自然語言推理,兩個硬基準,ANLI-R2和HANS考驗先前模型的典型失敗案例。
  • 詞義消歧任務WiC需該模型從上下文對多義詞進行理解。

結果該模型在PiQA開發集和LAMBADA測試集上的零樣本、單樣本和少樣本三種設置中都獲得了最高的成績。

在其他各項任務上也獲得了最佳。

微軟英偉達發布5300億NLP模型“威震天-圖靈”,花了4480塊A100

除了報告基準任務的匯總指標外,他們還對模型輸出進行了定性分析,并觀察到,即使符號被嚴重混淆,該模型也可以從上下文中推斷出基本的數學運算。

微軟英偉達發布5300億NLP模型“威震天-圖靈”,花了4480塊A100

當然,該模型也從數據中也提取出了刻板印象和偏見。微軟和英偉達表示也在解決這個問題。

另外,他們表示在生產場景中使用MT-NLG都必須遵守微軟的“負責任的AI原則”來減少輸出內容的負面影響,但目前該模型還未公開。

 

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2021-10-15 15:26:10

AI 數據人工智能

2023-03-14 13:06:54

2024-08-22 18:58:27

英偉達微軟小語言模型

2023-05-09 08:54:01

ChatGPT必應聊天

2023-07-13 23:16:19

英偉達GPU

2023-02-06 10:25:13

AI模型

2023-03-14 09:19:02

微軟OpenAIChatGPT

2023-04-07 09:28:31

模型訓練

2022-11-08 15:00:51

芯片英偉達

2023-10-31 19:20:29

語言模型英偉達芯片

2025-05-30 08:40:00

英偉達芯片AI

2022-05-17 16:12:33

英偉達模型開源

2024-08-06 13:13:46

2023-08-10 13:54:36

GPUAI

2023-08-13 07:44:18

GPU模型英偉達

2023-04-05 14:31:49

AI超算人工智能

2023-11-21 09:14:33

微軟Azure AI

2023-08-14 08:07:46

ChatGPTAI

2024-02-29 13:54:00

數據訓練

2023-10-18 13:17:12

AI芯片英偉達美國
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美日韩在线一区二区 | 日本人做爰大片免费观看一老师 | 日日操夜夜操天天操 | 国产三级在线观看播放 | 毛片视频网址 | 国产精品免费观看 | 中文字幕1区 | 成人精品在线观看 | 免费黄色片在线观看 | 精品国产一区二区三区久久久久久 | 香蕉婷婷 | 亚洲啊v在线 | 久久99视频 | 欧美精品一区二区三区在线播放 | 亚洲成人av一区二区 | 一区二区三区久久久 | 国产精品免费观看视频 | 精品综合在线 | 中文字幕日韩欧美 | 欧美日韩久| 久久99精品久久久久久国产越南 | 国产在线精品一区二区 | 97久久精品 | 日本91av视频 | 欧美日韩在线成人 | 视频在线h | www.日日干| 欧美在线不卡 | 成人精品在线观看 | 天天艹天天干天天 | 久久亚洲国产精品 | 日韩一级电影免费观看 | 亚洲一区二区三区视频 | 日韩精品免费视频 | 免费观看羞羞视频网站 | 成人国产精品久久久 | 亚洲三区视频 | 欧美日韩综合一区 | 亚洲一区二区 | 久久精品国产一区二区电影 | 久草网免费|