成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

GPT、Llama等大模型存在「逆轉詛咒」,這個bug該如何緩解?

人工智能 新聞
我們是否正在掉入中等智能陷阱?一個關于大語言模型 “逆轉詛咒” 的分析與緩解方法。

來自中國人民大學的研究者將 Llama 等因果語言模型所遭遇的 “逆轉詛咒” 歸咎于 next-token prediction + causal language model 的本質缺陷,并發現 GLM 采用的自回歸填空的訓練方法對這種 “逆轉詛咒” 顯示出更強的魯棒性。

通過將雙向注意力機制引入 Llama 模型進行微調,該研究實現了對 Llama 的 “逆轉詛咒” 的緩解。

該研究認為當前主流的這種大模型結構與訓練范式存在著很多潛在的缺陷,希望有更多的研究者能夠在模型結構或者預訓練范式上進行創新突破,以獲得更高的智能水平。

圖片

論文地址:https://arxiv.org/pdf/2311.07468.pdf

背景

Lukas Berglund等人發現 GPT 以及 Llama 模型存在一種 “逆轉詛咒”:當向 GPT-4 提問 “Who is Tom Cruise's mom?” GPT-4 可以給出正確的回答 “Mary Lee Pfeiffer”,而當向 GPT-4 提問 “Who is Mary Lee Pfeiffer's son?” GPT-4 表示自己并不知道這個人。也許 GPT-4 經過對齊之后,可能出于對人物隱私的保護,不愿意回答這種問題,但是經過測試,在一些不涉及隱私的知識問答上,也存在著這種 “逆轉詛咒”。

比如,GPT-4 能正確回答 “黃鶴一去不復返” 的下一句,但是對于 “白云千載空悠悠” 的上一句是什么,模型出現了嚴重的幻象。

圖片

圖一:詢問 GPT-4 “黃鶴一去不復返” 的下一句是什么,模型正確回答

圖片

圖二:詢問 GPT-4 “白云千載空悠悠” 的上一句是什么,模型出錯

逆轉詛咒因何而來?

Berglund 等人的研究只在 Llama 和 GPT 上做了測試,這兩種模型的共同特點是:(1)利用無監督的 next-token prediction 任務進行訓練,(2)在 decoder-only 的模型中,采用單向的因果注意力機制(causal attention)。

該研究的觀點是,逆轉詛咒是由這些模型的訓練目標導致的,并且可能是 Llama,GPT 這類模型特有的問題。

圖片

圖三:采用 Next-token prediction(NTP)訓練一個因果語言模型的示意

這兩點的結合就導致了一個問題,如果一條訓練數據中含有兩個實體 A 和 B,并且 A 出現在 B 的前面,那么這類模型只能優化正向預測的條件概率 p (B|A),對于反向的條件概率 p (A|B) 的值是沒有任何保證的。一旦訓練集不夠大,不能夠將 A 與 B 可能的排列充分覆蓋,那么自然就會出現 “逆轉詛咒” 現象。

當然,也有很多生成式語言模型并沒有采取以上的訓練范式,比如清華提出的 GLM,訓練方法如下圖所示:

圖片

圖四:一個簡化版的 GLM 訓練示意

GLM 采用了自回歸填空(Autoregressive Blank Infilling,ABI)的訓練目標:隨機從輸入中選取一段內容進行 mask,并且自回歸地預測這段內容。雖然待預測的 token 依然采用單向注意力對 “上文” 產生依賴,但是此時 “上文” 中包括了這個 token 在原始輸入里之前和之后的全部內容,因此,ABI 隱式地將輸入中的反向依賴關系考慮到了。

該研究進行了一個實驗發現 GLM 一定程度上確實可以免疫 “逆轉詛咒”:

  • 該研究采用 Berglund et al. 提出的 “人名 - 描述問答” 數據集,該數據集使用 GPT-4 編造了若干人名和對應的描述,人名和描述都是獨一無二的。數據示例如下圖所示:

圖片

訓練集分為兩部分,一部分是人名在前(NameToDescription), 另一部分是描述在前(DescriptionToName),兩部分不存在重疊的人名或者描述。測試數據的 prompt 對訓練數據的 prompt 進行了改寫。

  • 該數據集有四個測試子任務:
  1. NameToDescription (N2D): 通過 prompt 模型訓練集 “NameToDescription” 部分涉及到的人名,讓模型回答相應的描述
  2. DescriptionToName (D2N): 通過 prompt 模型訓練集 “DescriptionToName” 部分涉及到的描述,讓模型回答相應的人名
  3. DescrptionToName-reverse (D2N-reverse): 通過 prompt 模型訓練集 “DescriptionToName” 部分涉及到的人名,讓模型回答相應的描述
  4. NameToDescription-reverse (N2D-reverse): 通過 prompt 模型訓練集 “NameToDescription” 部分涉及到的描述,讓模型回答相應的人名
  • 該研究在此數據集上對 Llama 和 GLM 按照各自的預訓練目標(Llama 用 NTP 目標,GLM 用 ABI 目標),進行微調。微調后,通過測試模型回答逆轉任務的準確率,可以定性地評估模型在真實場景下遭受 “逆轉詛咒” 的嚴重性。由于所有人名和數據都是編造的,因此這些任務基本不會被模型已有的知識干擾。

圖片實驗結果表明,通過 NTP 微調的 Llama 模型,基本沒有正確回答逆轉任務的能力(NameToDescription-reverse 任務準確率為 0),而通過 ABI 微調的 GLM 模型,在 NameToDescrption 逆轉任務上的準確率非常高。

為了對比,該研究還使用 NTP 的方式微調了 GLM,發現 GLM 在 N2D-reverse 任務上的準確率也掉到了 0。

也許由于 D2N-reverse(利用逆轉知識,給定人名生成描述)比 N2D-reverse(利用逆轉知識,給定描述生成人名)要困難許多,GLM- ABI 相對于 GLM-NTP 只有微弱的提升。

不過這并不影響該研究得出主要結論:訓練目標是導致 “逆轉詛咒” 的原因之一。“逆轉詛咒” 在以 next-token prediction 方式預訓練的因果語言模型中尤其嚴重。

如何緩解逆轉詛咒

由于 “逆轉詛咒” 是 Llama,GPT 等模型的訓練階段導致的內在問題,在有限的資源下,我們能做的就是想辦法在新數據上微調模型,并盡可能地避免模型在新知識上 “逆轉詛咒” 的發生,以更充分地利用訓練數據。

受到 GLM 訓練方法的啟發,該研究提出了一種訓練方法 “雙向因果語言模型優化” (Bidirectional Causal language model Optimization),在基本不引入新的 gap 的情況下,讓 Llama 也能采用雙向注意力機制進行訓練,簡單來說,有以下幾個重點:

1. 消除 OOD 的位置信息。Llama 采用的 RoPE 編碼在 attention 計算的時候為 query 和 key 添加位置信息,計算方法如下所示:

圖片

圖片

其中圖片分別是當前層 m 和 n 位置的輸入,圖片是 RoPE 使用的旋轉矩陣,定義為:

圖片

如果直接將 Llama 的因果注意力掩碼去掉,會引入 out-of-distribution 的位置信息。原因是,在預訓練的過程中,在 m 位置的 query 只需與在 n 位置的 key 進行內積(圖片),上式內積計算中的 query-key 的相對距離 (n-m) 始終是非正的;而直接去掉注意力掩碼,在 m 位置的 query 就會與在 n>m 位置的 key 做內積,導致 n-m 變成一個正值,引入了模型沒見過的位置信息。

該研究提出的解決方法非常簡單,規定:

圖片

圖片 時,無需對內積計算做任何修改;當 n > m,通過引入一個新的旋轉矩陣圖片來計算。圖片是將旋轉矩陣中所有的 sin 項都取相反數得到的。這樣,就有圖片。那么當 n > m 時則有:

圖片

該研究將 attention score 的計算分為兩部分,按以上操作分別計算上三角和下三角,并最終進行拼接,這樣就很高效地實現了本文規定的注意力計算方法,整體操作如下子圖 (a) 所示:

圖片

2. 采用 mask denosing 的方式訓練

由于雙向注意力機制的引入,繼續使用 NTP 任務訓練會存在信息泄漏,導致訓練失敗,因此該研究使用恢復 mask token 的方式對模型進行優化。

該研究嘗試過遵循 BERT,在輸出端的第 i 位置去還原第 i 位置輸入的 mask token,由于這種預測方式與模型在測試階段使用的自回歸預測相差較大,并沒有取得效果。

最終,出于不引入新的 gap 的思想,該研究采用了自回歸式的 mask denoising,如上圖(a)所示:該研究在輸出端的第 i 個位置去還原第 i+1 位置輸入的 mask token。

此外,由于因果語言模型的預訓練詞表是沒有 [mask] 這個 token 的,如果在微調階段新加一個 token 的話,模型還得去學習這個無意義 token 的表示,因此該研究只是輸入一個占位 token,并在 attention 計算中忽略掉占位 token。

該研究在微調 Llama 時,每一步以均等的概率,隨機選擇 BICO 與普通的 NTP 作為訓練目標。在同樣微調十個 epoch 的情況下,在上述人名描述數據集上,與正常 NTP 微調的表現對比如下:

圖片

可以看到該研究的方法對于逆轉詛咒有一定的緩解。與 GLM-ABI 一樣,本文方法在 D2N-reverse 上取得的提升非常小。研究者推測這一現象的原因:盡管數據集中的人名及其對應描述由 GPT 編造以減少預訓練數據對測試的干擾,但由于預訓練模型具備一定程度的常識理解能力,比如認知到人名與描述之間通常存在一對多的關聯。在給定一個人名的情況下,可能對應多種不同的描述。因此,當模型在處理既需要利用反向知識,又要生成長描述的任務時,似乎顯得有些困惑。

此外,本文重點關注的是 base 模型的逆轉詛咒現象。如何在更復雜的場景下評估模型的逆轉回答能力,以及 RLHF 是否對于逆轉詛咒存在影響,仍需未來的工作進一步探究。

一些思考

當前大多數開源大語言模型遵循著 causal language model + next-token prediction 的范式。在這一范式中,可能隱藏著更多類似 “逆轉詛咒” 的內在問題。盡管目前這些問題可以通過擴大模型規模或增加數據量來暫時掩蓋,但它們并沒有真正消失,并且持續存在。當我們在模型規模擴大和數據量增加的道路上達到極限時,這個 “目前足夠好用” 的范式能否真正超越人類智能,該研究認為這非常困難。

該研究希望更多的大模型廠商以及有條件的研究者能夠深入挖掘當前主流大語言模型的內在缺陷,并在訓練范式上進行創新。正如該研究在正文的最后所寫,“Training future models strictly by the book may lead us to fall into a “middle-intelligence trap.”” (循規蹈矩地訓練未來的模型可能會引導我們掉入中等智能陷阱)

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-04-09 13:22:00

AI訓練

2023-09-23 12:34:11

AI模型

2024-01-12 10:29:26

2023-09-23 12:50:39

AI訓練

2023-10-23 12:28:04

數據AI

2023-09-11 15:57:16

人工智能模型GPT-4

2023-07-22 13:09:51

模型開源

2023-10-16 13:28:00

數據AI

2023-10-11 13:09:52

訓練模型

2023-06-05 12:32:48

模型論文

2023-12-11 12:46:42

GPT-4LLaMA2模型

2024-04-19 09:17:33

AI模型

2025-04-14 00:22:00

2024-04-19 14:52:13

MetaGPT-4模型

2024-01-04 16:41:29

大型語言模型自然語言處理

2023-06-08 08:09:43

2023-10-17 12:34:04

2025-02-12 13:42:25

2024-01-02 12:50:12

數據模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美中文 | 成人精品国产免费网站 | 精品一区二区三区免费视频 | 美女在线观看国产 | 欧美黑人狂野猛交老妇 | 国产精品3区 | 亚洲综合色站 | 日本视频中文字幕 | 国产激情视频在线 | 日韩另类 | 中文字幕在线视频一区二区三区 | 蜜桃精品在线 | 91国语清晰打电话对白 | 亚洲一区在线播放 | 亚洲精品在线免费观看视频 | 人人精品 | 精品日本中文字幕 | 亚洲资源在线 | 国产99久久精品一区二区永久免费 | 国产95在线| 在线一区二区三区 | 欧美成人精品在线观看 | 盗摄精品av一区二区三区 | 在线观看日本高清二区 | 黄色大片免费看 | 91精品国产91久久久久久吃药 | 美女黄视频网站 | 国产成人免费视频网站高清观看视频 | 亚洲高清av| 一区二区三区在线看 | 欧美亚洲视频在线观看 | 久久国产成人午夜av影院武则天 | 婷婷成人在线 | 一区二区av在线 | 视频在线观看亚洲 | 搞黄网站在线观看 | 亚洲精品久久久久中文字幕二区 | 中文字幕欧美在线观看 | 日韩av在线一区二区 | 亚洲国产精品99久久久久久久久 | 国产免费一区二区 |