成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

北交開源o1代碼版!強化學習+蒙特卡洛樹搜索,源代碼、精選數據集以及衍生模型通通開源

開發 前端
過程獎勵模型(PRM)開始發揮作用,評估每一步推理對最終答案的貢獻。在測試用例生成器(TCG)提供的結果獎勵和PRM提供的過程獎勵的雙重引導下,策略模型通過強化學習不斷改進。

北京交通大學研究團隊悄默聲推出了一版o1,而且所有源代碼、精選數據集以及衍生模型都開源!

名為O1-CODER,專注于編碼任務。

圖片圖片

團隊認為編碼是一個需要System-2思維方式的典型任務,涉及謹慎、邏輯、一步步的問題解決過程。

而他們的策略是將強化學習(RL)與蒙特卡洛樹搜索(MCTS)相結合,讓模型能夠不斷生成推理數據,提升其System-2能力。

實驗中,團隊有以下幾點關鍵發現:

  • 當推理正確時,基于偽代碼的推理顯著提升了代碼生成質量
  • 將監督微調(SFT)與直接偏好優化(DPO)相結合能夠提升測試用例生成效果
  • 自我對弈強化學習為推理和代碼生成創造了持續改進的循環機制

具體來說,團隊采用了測試用例生成器,在經過DPO后達到89.2%的通過率,相比初始微調后的80.8%有顯著提升;Qwen2.5-Coder-7B采用偽代碼方法實現了74.9%的平均采樣通過率,提升了25.6%。

網友直呼很需要這樣的模型。

圖片圖片

O1-CODER,究竟長啥樣?

圖片圖片

六步,逐步優化o1

應用于代碼生成的自我對弈強化學習面臨兩大挑戰:

  • 結果評估,即如何評判生成代碼的質量。與圍棋等任務不同,評估代碼需要在測試環境中運行并驗證。
  • 定義思考和搜索行為,即確定過程獎勵的對象和粒度。

對于第一個挑戰,團隊提出訓練一個測試用例生成器(TCG),根據問題和標準代碼自動生成測試用例,為強化學習提供標準化的代碼測試環境和結果獎勵。

對于第二個挑戰,他們采取”先思考后行動“的方式:先通過詳細的偽代碼思考問題,再基于偽代碼生成最終的可執行代碼。

這種方式的優勢在于適應性(同一偽代碼可對應不同的具體實現)可控粒度(通過調整偽代碼的細節程度控制推理/搜索行為的粒度)

具體來說,研究團隊提出了一個包含六個步驟的框架:

  • 訓練測試用例生成器(TCG),為代碼測試提供標準化的環境
  • 利用MCTS生成包含推理過程的代碼數據
  • 迭代微調策略模型,先生成偽代碼,再生成完整代碼
  • 基于推理過程數據初始化過程獎勵模型(PRM)
  • 在TCG提供的結果獎勵和PRM提供的過程獎勵的雙重引導下,通過強化學習和MCTS更新策略模型
  • 利用優化后的策略模型生成新的推理數據,返回第4步迭代訓練

圖片圖片

兩階段訓練測試用例生成器

在實驗部分,研究人員詳細介紹了測試用例生成器的訓練過程。

分為兩個階段:監督微調(SFT)直接偏好優化(DPO)

SFT階段的主要目標是確保生成器的輸出符合預定義格式,以便準確解析和提取生成的測試用例。訓練數據來自TACO數據集。

圖片圖片

DPO階段的目標是引導模型生成符合特定偏好的測試用例,進一步提高生成器的性能和可靠性。

這里采用了帶有人工構建樣本對的DPO方法,構建了一個偏好數據集。

實驗表明,SFT階段過后,TCG在標準代碼上生成的測試用例通過率達到80.8%,DPO階段進一步提升至89.2%,大幅改善了生成器產出可靠測試用例的能力。

偽代碼推理,引導模型進行深度推理

特別值得一提的是,研究者引入了基于偽代碼的提示方法,將其作為引導模型進行深度推理的“認知工具”。

圖片圖片

他們為此定義了三個關鍵行為:

  • 使用偽代碼定義算法結構:勾勒主要函數的結構和接口,把握任務的整體框架
  • 細化偽代碼:逐步明確每個函數的具體步驟、邏輯和操作
  • 從偽代碼生成代碼:將偽代碼的結構和邏輯精準翻譯為可執行代碼

圖片圖片

在MBPP數據集上進行的初步實驗表明,盡管整體通過率(Pass@1)有所下降,但Average Sampling Pass Rate(ASPR)顯著提高。

圖片圖片

表明結合偽代碼顯著改善了推理過程的質量,特別是在細化通向正確輸出的路徑方面。這為后續的自監督微調和強化學習提供了良好的起點。

自我對弈+強化學習

研究人員詳細描述了如何使用蒙特卡洛樹搜索(MCTS)來構建步驟級別的過程獎勵數據。

這個過程涉及到為每個問題形成一個推理路徑,該路徑由一系列推理步驟組成,并最終產生一個可執行的代碼。在MCTS的路徑探索中,使用偽代碼提示策略來引導推理過程。當達到終端節點時,就形成了一個完整的偽代碼推理路徑。

終端節點的獎勵值是基于兩個關鍵指標計算的:編譯成功率(compile)測試用例通過率(pass)

圖片圖片

這些指標被用來評估生成的代碼的質量和正確性。

獎勵值被反向傳播到路徑上的所有前序節點,為每個步驟分配一個獎勵值。通過這種方式,構建了推理過程數據集,為策略模型的初始化和訓練提供了基礎。

圖片圖片

過程獎勵模型(PRM)的任務是為當前步驟分配一個獎勵值,以估計其對最終答案的貢獻。

在數據合成過程中使用的樹搜索方法可以組織成點式(point-wise)和成對式(pair-wise)兩種數據格式。

圖片圖片

基于這些經過驗證的正確推理解,策略模型得到初始化

接下來,過程獎勵模型(PRM)開始發揮作用,評估每一步推理對最終答案的貢獻。在測試用例生成器(TCG)提供的結果獎勵和PRM提供的過程獎勵的雙重引導下,策略模型通過強化學習不斷改進。

更新后的策略模型被用來生成新的推理數據,補充到現有數據集中,形成自我對弈的閉環。這個數據生成-獎勵建模-策略優化的迭代循環,確保了系統推理能力的持續提升。

論文鏈接:https://arxiv.org/pdf/2412.00154
參考鏈接:https://x.com/rohanpaul_ai/status/1864488583744377271?s=46&t=iTysI4vQLQqCNJjSmBODPw


責任編輯:武曉燕 來源: 量子位
相關推薦

2025-02-13 09:10:00

2024-08-19 08:45:00

開源模型

2025-05-26 08:52:00

2024-11-05 14:20:00

AI模型

2025-02-24 10:15:00

2025-02-13 09:34:13

2024-09-13 06:32:25

2025-01-10 11:42:40

2018-06-27 19:32:59

人工智能深度學習機器學習

2020-10-23 09:07:17

開源代碼開發

2025-04-26 09:25:00

模型推理AI

2020-08-10 06:36:21

強化學習代碼深度學習

2024-05-09 08:33:33

2019-10-08 10:44:42

人工智能機器學習技術

2024-09-14 14:00:00

AI模型

2025-01-21 09:00:00

2025-02-03 14:17:27

2021-08-20 10:12:35

Python蒙特卡洛股票

2024-09-18 09:17:00

OpenAI模型開源

2023-10-27 13:05:23

模型訓練
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 在线观看视频91 | 亚洲成年在线 | 精品免费在线 | 成人免费大片黄在线播放 | 欧美人成在线视频 | 亚洲福利| 天天操网 | 99国产在线 | 国产精品国产精品国产专区不卡 | 一区二区三区国产好的精 | 能看的av| 午夜精品福利视频 | 亚洲一区导航 | 欧美成人精品一区二区三区 | 一区二区高清不卡 | 伊人网在线看 | 日韩欧美在线一区 | 青青草免费在线视频 | 成人黄色a | 国产视频h| 少妇午夜一级艳片欧美精品 | 国产日韩欧美在线观看 | 成人精品在线观看 | 澳门永久av免费网站 | 中文字幕一区二区三区四区五区 | 亚洲综合在 | 狠狠操狠狠搞 | 色综合色综合色综合 | 久久国产成人 | 久久久久久免费毛片精品 | 欧洲妇女成人淫片aaa视频 | 日韩不卡一区二区三区 | 久久久久9999亚洲精品 | 国产精品成人一区二区 | 四虎永久在线精品免费一区二 | 日韩一区在线播放 | 国产一区二区三区四区 | 欧美区日韩区 | 午夜精品视频 | 国产一级毛片精品完整视频版 | 精品久久久久久久 |