成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大模型免微調解鎖對話能力,RLHF沒必要了!一作上交大校友:節省大量成本和時間

人工智能 新聞
新論文指出,預訓練完成剛出爐的基礎模型已經掌握了遵循指令的能力,只需要提示工程就能引導出來,引起開發社區強烈關注。

要搞大模型AI助手,像ChatGPT一樣對齊微調已經是行業標準做法,通常分為SFT+RLHF兩步走。

來自艾倫研究所的新研究卻發現,這兩步都不是必要的???

新論文指出,預訓練完成剛出爐的基礎模型已經掌握了遵循指令的能力只需要提示工程就能引導出來,引起開發社區強烈關注。

因為RLHF的成本非常高訓練還不穩定,這樣可就省了大錢了。

圖片

研究據此提出一種新的免微調對齊法URIAL

論文中把新方法形容為“解鎖基礎模型潛力的咒語”,能夠節省大量算力資源和時間。

更值得關注的是,不掌握穩定RLHF(人類強化學習)能力的小型團隊,也能低成本開發出可以聊天對話、遵循指令的對齊模型了。

圖片

目前URIAL代碼和新評估基準Just-Eval-Instruct已開源,剛剛上傳不久。

圖片

研究來自艾倫研究所和華盛頓大學Yejin Choi團隊,過去曾提出Top_p采樣,在如今大模型API調用中是常用參數。

圖片

一作研究員林禹辰是上交大校友。

圖片

打破SFT+RLHF神話

最早讓人們開始質疑對齊微調的,是一項Meta等在5月份一項研究LIMA

LIMA指出只需要1000個樣本做SFT(監督微調),就可以匹配ChatGPT的性能。

圖片

論文中LIMA團隊還探討了“表面對齊假設”(Superficial Alignment Hypothesis)

模型的知識和能力幾乎都是在預訓練階段學到的,對齊則是教會模型在與用戶互動時應使用哪些特定格式的子集。

換句話說,對齊階段只是調整模型的語言風格,沒有增強模型的能力。

從表面對齊假設出發,URIAL團隊做了充分的實驗,對比基礎模型和對齊模型之間的token分布偏移(TDS,token distribution shifts)

圖片

實驗選用3組基礎模型與對齊模型做對比,結果表明:

圖片

  • 對齊僅影響一小部分token。基礎模型和對齊模型在大多數位置的解碼中表現相同,共享排名靠前的一組token。
  • 對齊主要涉及文風相關的token,如話語標志(discourse markers,“首先、其次、總之、然而……”這些)、過渡詞和安全免責聲明,只占5-8%。
  • 對齊對較早出現的token更重要(生成內容的開頭),在后續位置對齊模型排名最高的token,基本位于基本模型排top-5的token之內。
  • 基礎模型已經獲得了足夠的知識來遵循指令,給定合適的上下文作為前綴時,它們的行為與對齊模型非常相似。

接下來的問題就是,不用SFT和RLHF的情況下,如何把一個基礎模型變成能多輪對話、遵循指令的AI助手?

免微調對齊法URIAL

團隊的免微調對齊法URIAL(Untuned LLMs with Restyled In-context ALignment),純粹利用基礎模型的上下文學習能力實現有效對齊,只需三個風格示例和一個系統提示。

圖片

在實驗中,團隊使用URIAL方法對齊7B、70B的Llama2以及Mistral-7B大模型。

圖片

結果表明當基礎模型很強時,URIAL的表現甚至優于SFT和RLHF

圖片

團隊認為URIAL方法的主要貢獻有:

  • 實施起來非常簡單,并且可完美重現,從而有助于未來新的免微調和微調對齊方法的開發和評估。
  • 可輕松對齊大尺寸模型(如Llama2-70b甚至Falcon-180b),節省大量算力和時間。
  • 可用于在預訓練過程中頻繁評估基礎模型,監控基礎模型的質量。
  • 可用于公平比較不同基礎模型之間的對齊潛力。過去不同模型的微調過程可能差異很大(例如數據、訓練方法、超參數等),不能直接反映基礎模型的質量。
  • 還可用于探索大模型對齊的科學,例如分析基礎模型在預訓練期間已經獲得的知識和技能,識別缺失的內容,而不是盲目地利用大量數據進行微調,從而產生不必要的計算成本。

圖片

實驗也探索了URIAL中示例的不同數量,如果提高到8個,一些指標中有明顯提升,但一些指標中也有下降,最終作者推薦用3個比較平衡

圖片

對于改用不同的示例也比較穩健

圖片

如果把之前對話作為示例的一部分,URIAL也可以讓基礎模型獲得多輪對話的能力

圖片

One More Thing

論文中實驗的Llama-2和Mistral,其實總體來說都屬于羊駝家族。

URIAL免微調對齊法是否用于羊駝架構之外的大模型?

由于不是羊駝的開源大模型不好找,我們試了試剛剛發布的Transformer挑戰者,Mamba架構基礎模型

Mamba是一種狀態空間模型,別說不是羊駝了,連Transformer都不是。

使用論文附錄提供的一份URIAL標準提示詞,簡單測試發現同樣適用。

圖片

使用URIAL詢問“你能用6歲小朋友也能聽懂的方式解釋什么是狀態空間模型嗎?”

Mamba將數學定義的狀態比喻成了車在路上的位置,比較簡單易懂,甚至給出markdown格式的圖片鏈接,試圖圖文并茂回答問題。

圖片

如果不使用URIAL直接輸入這個問題,Mamba的表現就是基礎模型那樣補全下文而不是回答問題了,解釋的內容也是車轱轆話來回說。

圖片

論文:https://allenai.github.io/re-align/

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-07-03 10:34:13

2024-10-28 07:20:00

AI模型

2016-05-12 16:22:43

IBM大型機LinuxONE

2022-12-19 14:39:29

機器人論文

2023-10-16 12:31:17

人工智能數據

2021-11-19 10:13:01

模型人工智能計算

2023-06-16 09:45:36

AI視頻

2024-08-20 07:55:03

2024-07-22 08:17:00

模型性能

2023-09-18 11:25:00

2023-10-20 17:53:05

2023-07-17 09:21:12

Meta模型

2024-06-20 07:23:29

2019-12-30 21:50:16

物聯網暖通空調IOT

2024-02-02 21:42:41

2025-05-13 05:11:00

推理模型微調

2024-09-18 11:50:00

框架訓練AI

2025-04-02 08:40:00

人工智能大模型AI

2023-06-07 08:22:59

LLM微調技術

2025-01-02 07:00:00

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 色综合久久久久 | www.久| 亚洲精品二区 | 黄色骚片 | 在线视频一区二区三区 | 国产精品久久久av | 99久久婷婷国产综合精品电影 | 自拍偷拍亚洲一区 | 国产精品久久久久无码av | 久久精品国产免费高清 | 欧日韩不卡在线视频 | 一级做a爰片性色毛片16美国 | 欧美在线视频二区 | 免费人成在线观看网站 | 国产午夜精品一区二区 | 中文字幕一区二区三区在线观看 | 手机av在线 | 精品国产乱码久久久久久丨区2区 | 久久久精品 | www.五月婷婷.com | 欧美精品久久久久 | 在线不卡视频 | 国产欧美一区二区三区在线播放 | 欧美精品久久久 | 99这里只有精品视频 | 国产欧美精品区一区二区三区 | 亚洲 欧美 综合 | av看片网| 国产精品小视频在线观看 | 免费国产一区二区 | 精品一区二区在线观看 | xxxcom在线观看| 精品久久99 | 亚洲国产精品一区二区三区 | 毛片免费在线观看 | 欧美日韩综合一区 | 国产精品免费在线 | 久久国产婷婷国产香蕉 | 色综合视频 | 免费精品久久久久久中文字幕 | 涩涩视频网 |