成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

不用千億參數也能合成高質量數據!這個開源框架讓小模型“組團逆襲”,7B性能直追72B

人工智能 新聞
上海人工智能實驗室聯合中國人民大學提出GRA框架(Generator–Reviewer–Adjudicator) 。

無需蒸餾任何大規模語言模型,小模型也能自給自足、聯合提升?

上海人工智能實驗室聯合中國人民大學提出的GRA框架(Generator–Reviewer–Adjudicator) 正是這樣一種新范式:

該方法以“多人協作”、“角色分工”的理念為核心,系統性探索了多開源小模型如何通過協同機制生成高質量訓練數據。

圖片

實驗結果顯示,在涵蓋數學、代碼、邏輯推理、通識問答等10個主流數據集上,GRA生成的數據質量與單個大型語言模型(如Qwen-2.5-72B-Instruct)輸出相當或更高,并在多數任務中取得了顯著領先。

圖片

該項目已開源,詳細可見文末鏈接。

GRA框架:“模擬論文投稿”

圖片

如果說傳統方法是單槍匹馬生成數據,那GRA更像是一次“模擬頂會審稿流程”——作者、審稿人、AC各就各位,小模型分工合作、打分評審,確保數據內容質量穩定、標準統一。

1.Generator:像“作者”一樣創作新樣本

GRA會先將任務劃分為多個領域(如數學、編程、邏輯推理等),每個Generator小模型負責在對應領域生成新指令與響應。它們從種子數據中提取關鍵詞與摘要,結合領域知識生成高質量樣本,確保內容豐富、主題聚焦、語義清晰。

2.Reviewer:像“審稿人”一樣嚴格評審

每條數據生成后,會交由多個Reviewer小模型進行兩輪審查:

  • 首先檢查指令是否合理、清晰;
  • 然后全面評估響應的正確性、相關性與語言質量,并打分附評語。

系統會根據平均評分與評分一致性篩選樣本——分數偏低的直接淘汰,意見分歧的則送入下一環節。

3.Adjudicator:像“AC”一樣做出最終裁決

當Reviewer之間出現評分沖突時,Adjudicator小模型將登場,獨立復審并做出最終判斷。它如同學術審稿中的AreaChair,有效避免“多數誤判”,確保留下來的數據客觀、可靠。

4.后處理模塊:讓好數據更“精致”

通過評審后,系統還將進行語義去重、摘要補全與格式統一,進一步提升樣本的一致性與表達質量。

總的來說,GRA構建了一個“模擬頂會審稿”的自動化系統:小模型們輪流扮演創作、審閱、仲裁等角色,在多輪協作中生成高質量訓練數據。

這種機制不僅提升了數據生成的多樣性與公正性,也打破了以往對大模型蒸餾的依賴——實現了真正屬于小模型的“集體智能”路徑。

實驗驗證:“三個臭皮匠賽過諸葛亮”

GRA團隊選取了覆蓋數學推理(如Math、GSM8K)、代碼生成(HumanEval、MBPP)、推理問答(HellaSwag、ARC-C、GPQA、BBH)和通識問答(MMLU、IFEval)四個領域的10個公開數據集,以全面評GRA框架的性能。

GRA框架集成了5個參數量在7–8B之間的開源小型語言模型,包括LLaMA-3.1-8B-Instruct、Qwen-2.5-7B-Instruct、InternLM3-8B-Instruct、Mistral-7B-Instruct-v0.3和Tulu-3-8B。

將GRA生成的數據用于訓練兩個基礎模型(LLaMA-3.1-8B-Base和Qwen-2.5-7B-Base),并與原始種子數據以及Qwen-2.5-32B、Qwen-2.5-72B-Instruct蒸餾生成的數據進行了系統對比。

圖片

實驗核心結果表明:

1.明顯優于原始數據:GRA生成的數據在LLaMA-3.1上平均提升了6.18%,在Qwen-2.5上平均提升了11.81%,說明即便在小模型之間協作,GRA也能顯著提升數據質量和訓練效果。

2.能和大模型蒸餾正面硬剛:GRA在LLaMA-3.1生成數據訓練的模型性能,僅比Qwen-72B蒸餾版低0.59%;在Qwen-2.5生成數據訓練的模型性能,平均領先Qwen-72B蒸餾版達8.83%。表明小模型協同機制有望成為更低成本、更高性價比的大模型替代方案。

3.大模型“更大”≠更好:實驗還發現,Qwen-72B相比32B的性能增幅有限,反映出傳統蒸餾范式在進一步擴大參數規模時,收益正逐漸遞減。相比之下,GRA的“群體智慧”路徑更具擴展潛力。

一句話總結:多個小模型合理分工,也能“卷”出媲美甚至超越大模型的訓練效果。這不僅節省算力,更可能重塑我們對“什么才是有效數據合成”的認知。

要素分析:“1+1+1>3”

從數據多樣性、質量、難度控制等維度對GRA的優勢進行分析,發現以下關鍵因素:

1.數據多樣,補充盲區

通過t-SNE可視化對比發現,GRA生成的數據分布明顯比原始種子數據和大模型蒸餾數據更廣、更均勻,尤其在原始數據未覆蓋的語義空間中表現出良好的補充能力。這表明GRA所產數據具備更強的覆蓋面和多樣性。

圖片

2.數據質量靠譜,審得細也審得穩

GRA生成的數據不僅通過多個小模型評審,還在對比實驗中獲得了來自Qwen-2.5-72B的高分認可——其中超過87.3%的樣本評分高度一致。

同時,GRA的評分體系呈現出更平滑、細膩的分布,表明其在數據質量評估中具備更強的分辨力和一致性,驗證了其數據篩選機制的可靠性。

圖片

3.數據更“難啃”,訓練更有效

通過Instruction-Following Difficulty(IFD)指標分析,GRA生成數據的任務難度比種子數據高出14.58%,并且與大模型蒸餾數據基本持平(GRA:75.82%,Qwen-72B蒸餾:75.49%)。這意味著GRA能夠構建具挑戰性、高知識密度的數據,為小模型提供更具張力的訓練樣本。

圖片

論文地址:https://arxiv.org/abs/2504.12322

項目地址:https://github.com/GX-XinGao/GRA

模型地址:https://huggingface.co/collections/GX-XinGao/gra-6801cba58ceb0074566cdb4e

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-11-29 13:52:00

模型訓練

2024-06-03 10:43:34

2025-04-27 09:16:00

模型AI數據

2025-02-11 16:11:12

2024-02-07 12:39:00

AI數據

2025-06-17 09:07:24

2025-06-23 09:14:00

2025-03-17 09:40:00

2024-02-04 08:00:00

Zephyr 7B大語言模型算法

2024-07-22 09:00:00

2024-03-18 07:01:42

2024-01-12 13:51:00

數據訓練

2025-03-25 12:11:08

2023-10-30 09:15:00

AI智能

2010-07-06 11:52:59

數據庫RationalJazz

2024-07-18 12:53:13

2025-06-25 08:54:03

模型訓練AI

2022-11-03 15:10:24

前端數據結構算法

2025-04-15 09:19:00

模型AI數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美精品一二区 | 97精品超碰一区二区三区 | 日韩在线小视频 | 精品久久久久久久人人人人传媒 | 成人午夜在线观看 | 亚洲一区二区三区桃乃木香奈 | 中文字幕在线精品 | 日韩免费| 日韩一区二区福利视频 | 青春草在线 | 中文一区| 色一情一乱一伦一区二区三区 | 中文字幕免费 | 性xxxxx | 成人福利视频 | 91久久精品国产 | 超碰91在线 | 精品三区 | 亚洲精品二区 | 在线观看亚洲专区 | 天久久| 桃花av在线 | 一区二区三区四区视频 | 亚洲在线高清 | 在线色网| 国产欧美日韩一区二区三区在线 | 在线观看成人av | 亚洲精品视频免费观看 | 天天躁天天操 | 成人影院在线 | 波多野结衣电影一区 | 啪一啪 | 毛片一级片 | a在线视频观看 | 午夜在线| 国产精品美女久久久久久免费 | 日本三级网 | 日韩精品一区二区三区久久 | 视频一区二区在线观看 | 99精品在线| 激情五月婷婷综合 |