成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

賈佳亞團隊新作:10k數據讓大模型數學能力超GPT-4

人工智能 新聞
如何強化推理能力,一直是大語言模型領域的重要問題之一。

只要10k數據,就能讓大模型的數學成績增長5.6%。

港中文賈佳亞團隊推出了基于推理步驟的大模型優化策略,能夠像老師教學生一樣優化大模型。

利用這種方法,72B Qwen模型的數學成績超越了GPT-4、Gemini1.5-Pro和Claude3-Opus等一眾閉源模型。

圖片

老師在糾正學生錯誤時,不會只告訴學生最終答案錯了,還會告知具體哪個步驟錯了,以此快速糾正其錯誤。

賈佳亞團隊正是學習了這一特點,將斯坦福團隊推出的DPO(直接偏好優化)進一步細化,形成了逐步應用的策略Step-DPO

該方法讓Qwen-72B模型在多個數據集上進步明顯,同時也獲得了更強的長鏈條推理任務能力。

像教育學生一樣訓練大模型

如何強化推理能力,一直是大語言模型領域的重要問題之一。

常見的思維鏈策略通過在輸入提示詞部分添加“Let’s think step by step.”,來使模型在輸出中完成逐步推理,但對于復雜的問題,僅通過修改提示詞不足以引導模型正確解決問題。

由于復雜問題涉及的推理過程較長,有時包含數十個推理步驟,一旦其中任一步驟出錯,就難以得到正確的結果。

此外,現有方案旨在通過監督式微調(SFT)階段增加問答數據以實現更好的對齊。

然而,當SFT數據達到一定數量時,模型經常出現幻覺,性能也隨之趨于飽和。

一個潛在的原因是,隨著偏好輸出的概率上升,非偏好輸出的概率也會隨之增加。

為了抑制幻覺,提升模型的事實性,斯坦福大學提出了直接偏好優化方法,其工作原理是創建基于人類偏好對的數據集,每個偏好對都包含一個輸入提示、偏好輸出以及非偏好輸出。

然后對語言模型直接進行微調,最大限度地提高生成的可能性,并減少輸出的可能性。

因此,DPO的優化目標為:

圖片

其中πθ與πref分別表示當前微調模型以及參照模型。

但在長鏈條推理任務中,DPO無法準確判斷推理過程中的錯誤步驟,從而無法聚焦關鍵出錯步驟。

如下圖所示,基于DPO的模型在訓練過程中無法準確判斷推理步驟正確與否。

圖片

因此,作者提出了基于推理步驟的直接偏好優化——Step-DPO

圖片

就像老師在糾正學生錯誤時,不會只告訴學生最終答案錯了,還會告知具體哪個步驟錯了,以此快速糾正其錯誤。

與此類似,Step-DPO不再像DPO從整體上對比答案,而是將每個推理步驟視為一個基本單元,并且對比單個推理步驟,從更精細的角度提升模型的多步推理分析能力。

Step-DPO的優化目標為:

圖片

除此之外,作者還提出基于模型自生成的數據處理流程。如圖所示,該流程包含以下三個步驟:

圖片

第一步是錯誤收集

首先,給定一組數學問題D0=(x,y∧),其中x是數學問題,y∧是其真實答案。

然后,使用初始模型πref來得到每個數學問題x的答案。

在進行模型推理之前,需要添加思維鏈(CoT)前綴作為提示,以確保模型的推理結果被結構化為多個推理步驟,每個步驟均以“Step i:”開始。

經過模型推理可得到每個數學問題x的推理結果y,然后選擇與真實答案y∧不一致的那些結果,并匯總得到數據集D1

圖片

第二步是錯誤步驟定位

每個錯誤推理結果y都呈現為一系列推理步驟的序列y=s1,s2,…,sn,隨后需要人工或利用GPT-4驗證每個推理步驟的正確性,直到找到第一個錯誤步驟sk,并記錄其步驟編號。

然后將sk選為錯誤的推理步驟slose,從而得到D2

圖片

最后是錯誤步驟修正

為了獲得D2中每個樣本對應的正確推理步驟,需要對模型πref進行推斷,使用提示x和前面的正確推理步驟s1~k-1來采樣多個輸出ycont,此過程可以表示為:

圖片

隨后保留ycont中那些與真實答案一致的輸出,并將其中的第一個推理步驟作為swin,最終得到數據集D:

圖片

下圖展示了一個數據樣本示例。值得一提的是,該數據準備流程無需大量的人工介入,人類或GPT-4只需要判斷給定推理步驟是否正確,而無需親自撰寫答案來修正錯誤。

圖片

10k數據帶來數學能力大幅提升

Step-DPO可以在SFT模型或現有的開源Instruct模型上進行微調,僅通過10K數據以及數百個訓練步數,即可取得大幅度的數學能力提升。

如下圖所示,在Qwen2-7B-Instruct模型的基礎上進行Step-DPO可在MATH測試集上獲得5.6%準確率的提升

在Qwen2-72B-Instruct模型的基礎上進行Step-DPO,可在MATH和GSM8K測試集的準確率分別達到70.8%和94.0%,超過一系列閉源模型如Gemini-1.5-Pro、GPT-4-1106,以及Claude-3-Opus。

除此之外,在難度較高的包含數學競賽題的Odyssey-MATH榜單上也有顯著提升。

圖片

經過Step-DPO之后,模型更加魯棒,減少幻覺的產生,在推理過程中也不容易出錯。如以下兩個例子所示。

假設h(x)=f-1(x),如果h(2)=10,h(10)=1,h(1)=2,求f(f(10))。

圖片

t的平方根大于2且小于3.5,滿足這一條件的整數t有多少個?

圖片

即便是下圖這道數學競賽題,經過Step-DPO之后的模型也可以做對。

在所有非增函數f:{1,2,…,10}→{1,2,…,10}中,有些函數有固定點,另一些沒有,這兩種函數的數量相差多少?

圖片

目前,該項目的代碼,數據,模型,Demo均已公開至GitHub和Hugging Face,同時支持在線體驗。

論文地址:https://arxiv.org/abs/2406.18629
GitHub:https://github.com/dvlab-research/Step-DPO
在線Demo:http://103.170.5.190:7870/
模型(HF):https://huggingface.co/collections/xinlai/step-dpo-6682e12dfbbb2917c8161df7
數據(HF):https://huggingface.co/datasets/xinlai/Math-Step-DPO-10K

責任編輯:張燕妮 來源: 量子位
相關推薦

2024-07-18 12:56:29

2023-10-04 10:38:38

模型方法

2023-05-15 15:38:59

AI模型

2024-02-04 12:22:47

AI數據

2023-08-09 17:38:47

模型AI

2024-04-15 12:54:39

2023-12-10 15:05:47

AI模型

2024-05-09 08:33:33

2024-02-07 12:39:00

AI數據

2023-10-08 13:11:00

訓練數據

2023-10-19 08:27:31

AI模型

2024-01-30 21:18:57

模型智能CMMLU

2023-10-09 12:36:08

人工智能數據

2025-01-24 14:14:35

模型框架視頻

2023-11-03 13:07:00

AI模型

2023-12-09 14:30:50

2024-05-20 08:40:00

2022-05-20 10:43:30

AI模型

2024-01-30 20:08:07

谷歌GPT-4Bard

2024-04-07 13:40:20

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲性人人天天夜夜摸 | 国产乱码精品一区二区三区中文 | 亚洲精品在线免费播放 | 99热播精品 | 一级黄色毛片 | 91视频一88av| av天天爽| 精品视频一区二区在线观看 | 高清成人av | 中文字幕视频在线观看免费 | 黄色大片免费网站 | 国产成人一区二区 | 91电影| 成人免费在线视频 | 好姑娘影视在线观看高清 | 九九久久免费视频 | 日韩一区二区三区精品 | 国产精品久久一区二区三区 | 人人擦人人| 日韩在线视频观看 | 久久精品国产一区二区电影 | 91欧美精品 | 国产欧美一区二区三区日本久久久 | 日批免费看 | 国产免费人成xvideos视频 | 九九视频在线观看 | 一区二区三区视频在线免费观看 | 午夜丁香视频在线观看 | 精品一区二区三区在线播放 | 99小视频 | www.日韩高清| 中文字幕高清在线 | 伊人网站| 国产一级片一区二区三区 | 91在线看视频 | 国产91在线 | 亚洲 | 超碰3 | av天空 | 欧美不卡一区二区 | 99热激情 | 亚洲一区 |