成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

「Meta版ChatGPT」背后的技術:想讓基礎LLM更好地處理長上下文,只需持續預訓練

人工智能 新聞
在處理長上下文方面,LLaMA 一直力有不足,而通過持續預訓練和其它一些方法改進,Meta 的這項研究成功讓 LLM 具備了有效理解上下文的能力。

大型語言模型(LLM)所使用的數據量和計算量都是前所未見的,這也使其有望從根本上改變我們與數字世界的交互方式。隨著 LLM 被不斷快速部署到生產環境中并不斷擴展進化,可以預見這些模型將能在更多復雜精細的用例中提供服務,比如分析具備豐富知識的密集型文檔、提供更加真實和有參與感的聊天機器人體驗、在編程和設計等交互式創造過程中輔助人類用戶等。

為了支持這種演進發展,模型需要的一大關鍵能力就是:高效處理長上下文輸入。

到目前為止,具有穩健長上下文功能的 LLM 主要來自專有 LLM API,如 Anthropic 和 OpenAI 提供的 LLM 服務。現有的開源長上下文模型往往評估研究不足,而是主要通過語言建模損失和合成任務來衡量其長上下文能力,這樣的評估無法全面展示模型在各種真實世界場景中的有效性。

不僅如此,這些模型往往還會忽視在標準短上下文任務中保持強大性能的必要性,要么就直接不評估,要么報告出現了性能下降情況。

近日,Meta 團隊提出了一種新方法,宣稱可以有效地擴展基礎模型的上下文能力,并且用該方法構建的長上下文 LLM 的性能表現優于所有現有的開源 LLM。

圖片

論文:https://arxiv.org/abs/2309.16039

他們是通過對 LLaMA 2 檢查點進行持續預訓練來構建模型,這其中用到了另外 4000 億個 token 構成的長訓練序列。在訓練的系列模型中,較小的 7B/13B 變體模型的訓練使用了 32,768 token 長的序列,而 34B/70B 變體則使用了 16,384 token 長的序列。

評估方面,不同于之前已有模型的有限評估,Meta 的這個團隊進行了更為全面的評估研究,涵蓋語言建模、合成任務以及許多涉及長或短上下文任務真實世界基準任務。

在語言建模任務上,新方法訓練的模型在上下文長度方面表現出了明顯的冪律縮放行為。如圖 1 所示,這種縮放行為不僅表明新模型能夠持續受益于更多上下文,也表明上下文長度是 LLM 擴展方面的一大重要軸線。

圖片

通過對比新模型與基準 LLaMA 2 在研究基準上的表現,研究者觀察到新模型在長上下文任務上有明顯優勢,在短上下文任務上也有適度提升,尤其是在編程、數學和知識類任務基準上。

他們還探索了一種簡單且有成本效益的指令微調方法,可在沒有任何人工標注數據的情況下對經過持續預訓練的長模型進行微調。他們基于此方法得到的聊天模型在一系列長上下文基準任務(包括問答、摘要和多文檔聚合)上的整體表現勝過 gpt-3.5-turbo-16k。

方法

持續預訓練

由于注意力計算會隨序列長度增大呈二次增長,因此當使用更長的序列進行訓練時,計算開銷也會顯著增大。解決這一難題正是本研究的主要目標。

研究者假設:對短上下文模型進行持續預訓練可讓該模型具備上下文能力。然后他們通過實驗驗證了這一猜測。

在實驗中,他們保持原始 LLaMA 2 的架構基本不變,僅對位置編碼進行了必要的修改,以便其能將注意力覆蓋更長的序列。此外,他們還選擇不使用稀疏注意力,因為 LLaMA 2 70B 模型的維度為 h=8192,而只有當序列長度超過 49,152 (6h) 個 token 時,注意力矩陣計算和值聚合的成本才會成為計算瓶頸。

位置編碼。通過 7B 模型的早期實驗,研究者發現了 LLaMA 2 的位置編碼(PE)的一大關鍵局限 —— 其有礙注意力模塊聚合相聚較遠的 token 的信息。為了解決這個問題,使模型能處理長上下文建模,研究者對 RoPE 位置編碼方法進行了少量但必要的修改,即減小旋轉角度(由基頻 b 這個超參數控制),其作用是降低 RoPE 對遠距離 token 的衰減效應。研究者通過實驗展現了這種簡單方法在擴展 LLaMA 上下文長度方面的有效性,并還給出了理論解釋。

數據混合。基于使用修改版位置編碼的模型,研究者還進一步探索了不同數據混合方法對提升長上下文能力的作用,其中涉及的方法包括調整 LLaMA 2 的預訓練數據的比例和添加新的長文本數據。研究者發現:對于長文本的持續預訓練而言,數據的質量往往比文本的長度更重要。

優化細節。那么他們究竟是如何實現持續預訓練的呢?據介紹,他們在對 LLaMA 2 檢查點模型進行持續預訓練時,會在保證 LLaMA 2 中每批數據同等 token 量時不斷增大序列長度。所有模型都使用總計 4000 億個 token 訓練了 10 萬步。使用 Dao et al. (2022) 提出的 FlashAttention,當增大序列長度時,GPU 內存開銷幾乎可以忽略不計;研究者觀察到,對于 70B 模型,當序列長度從 4096 增至 16384 時,速度下降了大約 17%。對于 7B/13B 模型,他們使用的學習率為 2e^?5,并使用了余弦學習率計劃,預熱步驟為 2000 步。對于更大的 34B/70B 模型,該團隊發現設置更小的學習率(1e^-5 )很重要,這樣才能讓驗證損失單調遞減。

指令微調

為 LLM 對齊任務收集人類演示和偏好標簽是一個繁瑣而昂貴的過程。對于長上下文任務,這一挑戰和成本更為突出,因為這些任務通常涉及復雜的信息流和專業知識,例如處理信息密集的法律 / 科學文檔 —— 即使對于熟練的標注者來說,這些標注任務也不簡單。事實上,大多數現有的開源指令數據集都主要由短樣本組成。

針對這一問題,Meta 的這個研究團隊發現了一種簡單且低成本的方法,其能利用已經構建好的大規模和多樣化的短 prompt 數據集,并使其很好地適用于長上下文基準任務。

具體來說,他們取用了 LLaMA 2 Chat 使用的 RLHF 數據集,并使用 LLaMA 2 Chat 自身合成的自指示(self-instruct)長數據對其進行了增強。研究者表示,他們希望模型可以借此通過大量 RLHF 數據學習多樣化的技能組合并通過自指示數據將所學知識遷移至長上下文場景。

這個數據生成過程重點關注的是問答格式的任務:先從預訓練預料庫的一個長文檔開始,從中隨機選出一塊文本,然后通過 prompt 讓 LLaMA 2 Chat 基于該文本塊中的信息寫出成對的問答。研究者收集了不同 prompt 的長形式和短形式答案。

之后還有一個自批判(self-critique)步驟,即通過 prompt 讓 LLaMA 2 Chat 驗證模型生成的答案。給定生成的問答對,研究者使用原始長文檔(已截斷以適應模型的最大上下文長度)作為上下文來構建一個訓練實例。

對于短指令數據,研究者會將它們連接成 16,384 token 長的序列。對于長指令數據,他們會在右側添加填充 token,以便模型可以單獨處理每個長實例,而無需截斷。

雖然標準的指令微調只在輸出 token 上計算損失,但該團隊發現,如果也在長輸入 prompt 上計算語言建模損失,也能獲得特別的好處,因為這能為下游任務帶來穩定持續的提升。

主要結果

評估預訓練后的模型

表 1 聚合給出了在標準的短上下文基準任務上的性能表現。

在短上下文任務上,如表 2 所示,使用新方法得到的模型在 MMLU 和 GSM8k 上優于 GPT-3.5。

圖片

在長上下文任務上,如表 3 所示,新模型整體上表現更優。在 7B 規模的模型上,只有 Together-7B-32k 取得了與新模型相當的表現。

圖片

有效利用上下文。為了驗證新模型確實能有效使用增大的上下文窗口,從圖 2 可以看到,在每個長任務上的結果都會隨上下文長度的增長而單調提升。研究者還發現,新模型的語言建模損失與上下文長度之間存在一種冪律加常數的縮放關系(見圖 1),這說明:

  • 在語言建模任務上,隨著上下文長度增長,一直到 32,768 token 長的文本,新模型的性能都會持續提升,盡管后面的提升幅度會不斷變小。
  • 更大的模型能更有效地利用上下文,這從那些曲線的 β 值可以看出。

圖片

指令微調結果

如表 4 所示,在不使用任何人類標注的長上下文數據的情況下,新訓練的 70B 規模的聊天模型在 10 項任務中的 7 項上都優于 gpt-3.5-turbo-16k。

圖片

人類評估

通過計算每個相比較的示例結果的平均值,可以看出實驗中新模型的標準勝率優于其它每個模型;圖 3 給出了最終得分以及 95% 的置信區間。

圖片

在指令數據很少的情況下,新方法所得模型的表現可與 MPT-30B-chat、GPT-3.5-turbo-16k 和 Claude-2 媲美。

分析

圖 4 展示了基頻(base frequency)變化的影響。

圖片

基于這些評估,整體上看,新提出的 RoPE ABF(基頻調整版 RoPE)優于相比較的所有其它方法。

表 7 則通過 7B 模型實驗展示了所使用的數據混合方法對長上下文任務帶來的提升。

圖片

研究者還發現新的數據混合方法在很多情況下還能帶來很大的提升,尤其是對于 MMLU 等知識密集型任務,如表 8 所示。

圖片

這些結果表明,即使使用非常有限的長數據,也可以有效地訓練長上下文 LLM。而且研究者表示,相比于 LLaMA 2 所使用的預訓練數據,該團隊所使用的數據的優勢在于數據本身的質量,而不是長度分布上的差異。

而表 9 表明,通過指令微調這種簡單技巧,可讓模型更加穩定地應對輸入和輸出長度不平衡的情況,從而在大多數測試任務中取得顯著改進。

圖片

表 10 和 11 則表明對短上下文模型持續預訓練可在幾乎無損于性能表現的同時輕松節省約 40% 的 FLOPs。

圖片

圖片

AI 安全

在 AI 安全方面,研究者觀察到,與 LLaMA 2 Chat 相比,經過指令微調的模型整體上能維持相近的安全性能;而且與 Falcon-instruct 和 MPT-instruct 等其它開源 LLM 相比,經過指令微調的模型會更安全且偏見也更少。

圖片

華人作者介紹

Wenhan Xiong

Wenhan Xiong 現為 Meta Generative AI 研究科學家,他本科畢業于中國科技大學,博士畢業于加州大學圣巴巴拉分校。他的研究致力于打造能完成復雜、專業的長文本大語言模型,參與了包括 Code Llama 在內的多個研究項目,博士期間他專注構建開放問答系統和檢索增強的自然語言處理。

圖片

個人主頁:https://xwhan.github.io/

Jingyu Liu

Jingyu Liu 現為蘇黎世聯邦理工學院碩士研究生,本科畢業于紐約大學計算機系,此前在 Meta Generative AI 做大語言模型的研究,他參與了包括 Code Llama 在內的多個研究項目。

圖片

谷歌學術:https://scholar.google.com/citations?user=jidrykQAAAAJ&hl=en

Hejia Zhang

Hejia Zhang 現為 Meta Generative AI 組高級研究科學家,主要研究 Meta 基礎大模型、AI Agent,及其在 Meta 產品線中的應用,此前曾在 Meta 推薦系統和人工智能組進行自然語言處理相關研究。她本科畢業于萊斯大學(電子工程和應用數學雙學位),博士畢業于普林斯頓大學(電子工程和神經科學聯合學位)。

圖片

谷歌學術:https://scholar.google.com/citations?user=bI0cfykAAAAJ&hl=en

Rui Hou

Rui Hou 現為 Meta GenAI 研究科學家,主要研究生成式 AI 技術以及相關的生產應用。他于 2020 年 4 月入職 Meta,此前曾在豐田研究院等機構實習。

他本科畢業于同濟大學,碩士(智能系統和計算機科學雙學位)和博士(智能系統)均畢業于密歇根大學。

圖片

谷歌學術:https://scholar.google.com/citations?user=PKHKqX0AAAAJ&hl=en

Angela Fan

Angela Fan 是 Meta AI Research Paris 的研究科學家,主要研究機器翻譯。此前她曾在南錫 INRIA 和巴黎 FAIR 攻讀博士學位,主要研究文本生成。在此之前,她是一名研究工程師,并在哈佛大學獲得了統計學學士學位。

圖片

個人主頁:https://ai.meta.com/people/angela-fan/

Han Fang

Han Fang 現為 Meta Generative AI 組高級經理,負責 AI agent 以及 LLAMA 在 meta 的應用開發,此前曾在 meta 推薦系統和人工智能組任職。他本科畢業于中山大學,博士畢業于紐約州立大學石溪分校應用數學與統計專業。

圖片

個人主頁:https://ai.meta.com/people/han-fang/

Sinong Wang

Sinong Wang 現為 Meta 高級主任科學家,Meta Generative AI 組技術負責人。目前領導 Meta 基礎大模型和 AI agent 開發,以及在 meta 產品線中的應用。此前他在 Meta AI 致力于自然語言處理、transformer 架構、(語言 / 圖像)多模態研究。他博士畢業于俄亥俄州立大學電氣與計算機工程專業,并多次獲得 ACM/IEEE 最佳論文獎。

圖片

個人主頁:https://sites.google.com/site/snongwang/

Hao Ma

Hao Ma 現為 Meta Generative AI 組總監,負責大模型和語音基礎模型研究和在產品當中的應用,曾在 Meta discovery 組負責開發下一代 AI 推薦系統和 AI 安全系統。此前曾在微軟研究院擔任研究經理,負責知識圖譜在 bing 當中的開發。他博士畢業于香港中文大學計算機專業,并多次獲得 ACM test-of-time award.

圖片

個人主頁:https://www.haoma.io/

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-04-03 10:05:00

LLM性能基準測試

2023-06-15 15:45:42

自然語言語言模型

2024-09-30 14:10:00

2023-10-23 13:23:03

數據訓練

2024-01-03 13:40:00

AI訓練

2023-10-18 09:25:08

模型推理

2025-02-06 10:21:51

2024-09-05 08:24:09

2025-05-26 01:45:00

LLMAI信任

2017-05-11 14:00:02

Flask請求上下文應用上下文

2025-02-26 00:16:56

RAGAI服務

2023-11-13 18:19:54

模型訓練

2024-06-20 09:00:31

2024-03-11 13:20:00

模型AI

2012-12-31 10:01:34

SELinuxSELinux安全

2023-07-28 12:13:28

模型語言性能

2022-09-14 13:13:51

JavaScript上下文

2023-07-11 10:02:23

2025-01-22 13:30:00

2022-09-15 08:01:14

繼承基礎設施基礎服務
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲欧美日韩精品久久亚洲区 | 国产有码 | 人人射人人 | 99精品久久 | 一区二区三区免费 | 成人在线一区二区 | 伊人99| 久久久久国产一区二区三区 | 波多野结衣在线观看一区二区三区 | 天天夜碰日日摸日日澡 | 天堂av资源 | 一区二区三区亚洲 | 性网站免费 | av手机在线播放 | 亚洲成人精品免费 | 久久久久久久久久久福利观看 | 在线视频一区二区三区 | 精品中文字幕一区 | 亚洲综合大片69999 | 亚洲欧美在线视频 | 欧美色a v| avhd101在线成人播放 | 二区精品| 亚洲一区中文字幕 | 青娱乐自拍 | 91精品国产色综合久久不卡98口 | 欧美三级在线 | 日本高清不卡视频 | 成人免费一区二区三区牛牛 | 亚洲一级av毛片 | 欧美伊人影院 | 国产精品99久久久久久www | 日日日色 | 精品少妇一区二区三区在线播放 | 91精品久久久久久久久久入口 | 日韩欧美国产一区二区三区 | 热久久免费视频 | 久久精品亚洲欧美日韩精品中文字幕 | 国产精品久久午夜夜伦鲁鲁 | 在线一区二区三区 | 91在线免费观看 |