成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Meta千億參數大模型OPT-IML「升級版」來了,完整模型和代碼公布!

人工智能 新聞
繼今年五月發布的首個千億參數大模型OPT-175B后,Meta又重磅推出「升級版」OPT-IML,這次有何提升?

今年五月,MetaAI官宣發布了基于1750億參數的超大模型OPT-175B,還對所有社區免費開放。

12月22日,該模型的更新版本OPT-IML(Open Pre-trained Transformer)正式上線,Meta稱其「對2000個語言任務進行了微調,包含1750 億個參數」,還將為非商業研究用途免費開放。

圖片

這次更新的OPT-IML的性能表現如何,先上兩張圖來看看。

圖片

這次的OPT-IML創建了兩種模型尺寸,分別是30B和175B。

與舊版OPT模型相比,OPT-IML在14個標準NLP評估任務中的平均表現均優于OPT。

在零次學習任務上兩種模型大小分別好7%~ 和32-shot 任務分別好4%~ 和 0.4%~。

在這項研究中,研究人員描述了增加模型和基準大小如何影響指令調整決策對下游任務性能的影響。

為此他們開發了 OPT-IML Bench,這是一個相當大的指令元學習 (IML) 基準,包含2000個NLP任務,這些任務根據現有的八個基準分為任務類別。

圖片

為訓練OPT-IML 30B和175B,研究人員首先從該框架的角度對應用于 OPT-30B 的指令調優決策提出了見解。

在具有不同目標和輸入格式的四個評估基準(PromptSource、FLAN、Super-NaturalInstructions 和 UnifiedSKG)上,OPT-IML 在兩個尺度上展示了所有三種泛化技能。

它不僅在所有基準測試中顯著優于OPT,而且以極具競爭力的方式優于針對該特定基準優化的現有模型。

此外OPT-IML已經開源,Github鏈接小編也放在下面啦~

圖片

Github鏈接:https://github.com/facebookresearch/metaseq/tree/main/projects/OPT-IML

接下來通過論文來一起了解一下OPT-IML。

圖片

論文鏈接:https://github.com/facebookresearch/metaseq/blob/main/projects/OPT-IML/optimal_paper_v1.pdf

研究方法

大型語言模型的指令微調已成為增強其零樣本和少樣本泛化能力的有效方法。在這項研究中,Meta研究人員對指令微調進行了三項重要的補充。

首先,他們編譯了一個大規模的指令微調基準,其中包含來自八個數據集集合的2,000個NLP任務,按任務類型分類。

研究人員在此基準上有選擇地構建評估拆分,以測試三種不同類型的模型泛化能力:

包括來自完全保留類別的任務(tasks from fully held-out categories)、來自已見類型的保留任務(held-out tasks from seen types)以及來自已見任務的保留實例(held-out instances from seen tasks)。?

指令微調

對模型進行微調,以使它們與遵守說明保持一致,是目前機器學習的研究方向之一。

指令微調有兩種方法。一種側重于使用人工注釋的指令和反饋對各種任務的模型進行微調;另一種,側重于通過注釋或自動向可公開訪問的基準和數據集添加指令。

在本研究中,Meta AI成員專注于第二種技術,并編譯了許多可公開訪問的數據集,其中包含改進OPT的方法。

研究過程中,Meta成員使用來自四個基準的1836個任務,提出了類似的縮放方法。最后,在調整整個測試,以突破具有挑戰性的外部基準(例如 MMLU 和 Big-Bench Hard (BBH))性能極限的同時,研究人員描述了可能影響下游性能的各種指令調整策略的權值。

多任務學習

多任務學習是基于指令的微調 (MTL) 的一種表述。

MTL 是一種流行的范例,當與共享可比較參數或表示的類似函數結合使用時,它可以提高任務的泛化性能。

近年來,MTL已應用于眾多NLP場景,主要側重于通過利用來自相關活動的信號來提高訓練任務或新領域的性能。

相比之下,基于指令的微調有助于我們提高對前所未見問題的泛化性能。它是通過指令將所有任務組合成一個概念并通過在所有任務上分配模型的權重來一起訓練它們來實現的。

什么是OPT?

大型語言模型,即具有超過 1000 億個參數的自然語言處理系統,在過去幾年中改變了NLP和AI研究。

這些模型接受了大量不同文本的訓練,展現出令人驚訝的新能力,可以生成創意文本、解決基本數學問題、回答閱讀理解問題等等。

雖然在某些情況下,公眾可以通過付費 API 與這些模型進行交互,但完整的研究訪問權限仍然僅限于少數資源豐富的實驗室。

這種受限訪問限制了研究人員理解這些大型語言模型如何工作以及為何工作的能力,阻礙了提高其魯棒性和減輕偏見等已知問題的進展。

出于對開放科學的承諾,Meta AI于今年5月發布了Open Pretrained Transformer (OPT-175B),這是一個具有 1750 億參數的模型,在公共數據集上訓練而成,之所以共享這個模型,Meta AI 希望更多的社區參與理解關于大模型的基本技術。

簡單來說,Meta將用于人工智能研究的大型語言模型訪問權限開放給大眾,從而實現大模型研究的人工智能民主化。

與老版對比

根據Meta現在發布的IML版本經過微調,在自然語言任務上的表現比舊版OPT更好。

典型的語言任務包括回答問題、總結文本和翻譯。

為了進行微調,研究人員使用了大約2000個自然語言任務。這些任務分為八個NLP基準(OPT-IML Bench),研究人員也提供了這些基準。

平均而言,以30B和175B模型為例,OPT-IML比OPT的零次學習準確度提高了約 6-7%。在32次學習中,300億參數的模型準確度有顯著改進,1750億參數的模型有輕微改進。

圖片

經過對比,Meta團隊發現OPT-IML的性能在所有基準測試上都優于OPT,并且在零樣本和少樣本學習準確度方面,比其他基于指令微調的模型更具有競爭力。

責任編輯:張燕妮 來源: 新智元
相關推薦

2022-05-05 08:25:22

模型OpenAI代碼

2023-09-11 11:38:53

漏斗工具模型

2023-09-13 10:09:00

模型數據

2023-11-22 11:29:28

2023-02-23 15:29:21

BitTorrent開源

2023-11-01 19:03:56

云棲大會螞蟻集團SOFAStack

2024-04-01 12:10:48

數據訓練

2023-06-06 14:09:32

模型開源

2023-08-24 14:27:00

AI模型

2024-01-30 21:18:57

模型智能CMMLU

2023-08-10 14:04:15

代碼模型

2022-09-08 12:11:50

開源OPT云上服務

2023-06-12 14:15:38

AI開源

2025-01-06 07:00:00

大模型人工智能LLM

2014-03-13 10:22:31

Windows 8.1特性

2024-03-15 15:27:13

華為

2021-04-26 15:41:02

計算
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩精品一区二区三区中文在线 | 欧美久久久久久久 | 免费在线观看黄视频 | 欧美国产亚洲一区二区 | 精品国产乱码久久久久久蜜臀 | 久久久久国色av免费观看性色 | 99精品国自产在线观看 | 久久综合狠狠综合久久综合88 | 国产成人精品一区二区三区在线 | 99国产精品一区二区三区 | 欧美日韩中文字幕在线 | 日韩欧美在线不卡 | 国产一区二区三区视频 | 欧美精品福利 | 在线观看成人小视频 | 久久成人国产精品 | 国产视频不卡一区 | 久久综合成人精品亚洲另类欧美 | 国产精品日韩在线观看 | 国产综合精品一区二区三区 | 国产精久久久久久 | 成人免费看电影 | 伊伊综合网 | 男女性毛片 | 国产精品成人一区二区 | 亚洲欧美在线视频 | 国产精品国产三级国产a | 久色网| 中文字幕一区在线观看视频 | 伊人久久伊人 | 久久亚洲一区二区 | 羞羞的视频免费观看 | 久草色视频 | 亚洲性视频 | 久久久91精品国产一区二区三区 | 在线免费观看a级片 | 黄色一级片视频 | 中文字幕在线免费观看 | 精品国产18久久久久久二百 | 亚洲欧洲小视频 | 欧美日韩专区 |