成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

搜索智能體RAG落地不佳?UIUC開源s3,僅需2.4k樣本,訓練快效果好

人工智能 新聞
我們(UIUC & Amazon)提出的?s3(Search-Select-Serve)是一種訓練效率極高、結構松耦合、生成效果導向的 RL 范式。

當前,Agentic RAG(Retrieval-Augmented Generation)正逐步成為大型語言模型訪問外部知識的關鍵路徑。但在真實實踐中,搜索智能體的強化學習訓練并未展現出預期的穩定優勢。一方面,部分方法優化的目標與真實下游需求存在偏離,另一方面,搜索器與生成器間的耦合也影響了泛化與部署效率。

我們(UIUC & Amazon)提出的 s3(Search-Select-Serve)是一種訓練效率極高、結構松耦合、生成效果導向的 RL 范式。該方法使用名為 Gain Beyond RAG (GBR) 的獎勵函數,衡量搜索器是否真的為生成帶來了有效提升。實驗表明,s3 在使用僅 2.4k 訓練樣本的情況下,便在多個領域問答任務中超越了數據規模大百倍的強基線(如 Search-R1、DeepRetrieval)。

圖片

  • 論文標題:s3: You Don’t Need That Much Data to Train a Search Agent via RL
  • 論文鏈接:https://arxiv.org/pdf/2505.14146
  • 代碼倉庫:https://github.com/pat-jj/s3

圖片

研究動機

RAG 的發展軌跡:從靜態檢索到 Agentic 策略

圖片

我們將 RAG 系統的發展分為三階段:

1.Classic RAG:使用固定 query、BM25 等 retriever,生成器對結果無反饋;

2.Pre-RL-Zero Active RAG:引入多輪 query 更新,如 IRCoT、Self-RAG 等,部分通過 prompt 引導 LLM 檢索新信息。Self-RAG 進一步通過蒸餾大型模型的行為,訓練小模型模擬多輪搜索行為;

3.RL-Zero 階段:強化學習開始用于驅動檢索行為,代表方法如:

  1. DeepRetrieval:以 Recall、NDCG 等搜索指標為優化目標,專注于檢索器本身的能力;
  2. Search-R1:將檢索與生成聯合建模,以最終答案是否 Exact Match 作為強化信號,優化整合式的搜索 - 生成策略。

盡管 RL 方法在思路上更具主動性與交互性,但在實際落地中仍面臨諸多挑戰。

當前 RL-based Agentic RAG 落地表現不佳的原因

我們對當前 Agentic RAG 方案效果不穩定、訓練難、遷移能力弱的原因,歸納為三點:

1. 優化目標偏離真實下游任務

Search-R1 等方法采用 Exact Match (EM) 作為主要獎勵指標,即答案是否與參考答案字面一致。這一指標過于苛刻、對語義變體不敏感,在訓練初期信號稀疏,容易導致模型優化「答案 token 對齊」而非搜索行為本身。

例如,對于問題「美國第 44 任總統是誰?」,

  • 回答「Barack Obama」:?
  • 回答「The 44th president was Barack Obama.」:?(EM=0)

這種不合理的信號會誘導模型在生成階段做格式補償,從而無法反映搜索策略本身是否有效。

2. 檢索與生成耦合,干擾搜索優化

將生成納入訓練目標(如 Search-R1),雖然可以提升整體答案準確率,但也會帶來問題:

  • 無法判斷性能提升究竟來自「更好的搜索」,還是「更強的語言生成對齊能力」;
  • 對 LLM 參數依賴強,不利于模型遷移或集成;
  • 微調大模型成本高,限制了訓練效率和模塊替換的靈活性。

圖片

3. 現有評價標準無法準確衡量搜索貢獻

EM、span match 等傳統 QA 指標主要關注輸出結果,與搜索質量關聯有限。而 search-oriented 指標(如 Recall@K)雖可度量 retriever 性能,卻無法體現這些信息是否真的被模型「用好」。這些偏差直接導致現有 RL Agentic RAG 方法在評估、訓練和泛化上均存在瓶頸。

s3 - 專注搜索效果優化的 search agent RL 訓練框架

圖片

s3 的出發點很簡單:

如果我們真正關心的是「搜索提升了生成效果」,那就應該只訓練搜索器、凍結生成器,并以生成結果提升為獎勵。

這便是「Gain Beyond RAG(GBR)」的定義:

圖片

即:用 s3 搜索到的上下文喂給 Frozen Generator 之后的生成效果,相比初始的 top-k 檢索結果是否更好。值得注意的是,s3 訓練時始終初始化于相同的原始 query,從而能清晰對比 s3 檢索對結果帶來的真實「增益」。

準確率(Acc)評估標準

我們采用了更語義友好的 Generation Accuracy(GenAcc)指標。它結合了兩種機制:

  1. Span Match:判斷生成答案是否包含參考答案的任意 token span
  2. LLM Judge:由一個輕量 LLM 判斷答案是否語義正確

兩者只要任意一個通過,則視為正確。這一指標在人工對比中與人類判斷一致率高達 96.4%,相比之下,EM 僅為 15.8%。

訓練與優化 - 僅需 2.4k 樣本即可完成 ppo 訓練:

我們采用 PPO 進行策略優化。為了提升訓練效率:

  • 我們預篩除掉了「naive RAG 就能答對」的樣本;
  • 將訓練樣本集中在需要真正檢索的新信息的任務上;
  • Generator 完全凍結,訓練代價完全集中在 Searcher。

圖片

s3 訓練總時間只需 114 分鐘(vs Search-R1 的 3780 分鐘),數據也減少約 70 倍。

實驗分析

General QA w/ RAG

實驗一:通用 QA 任務,s3 優于 Search-R1 和 DeepRetrieval。

圖片

我們在六個通用數據集上評估了 Direct Inference、Naive RAG、IRCoT、DeepRetrieval、Search-o1、Search-R1 以及 s3 的性能。實驗中,我們使用了不同的下游 LLM,包括 Qwen2.5-7B-Instruct,Qwen2.5-14B-Instruct 和 Claude-3-Haiku。

盡管 s3 僅使用了 2.4k 條 NQ+HotpotQA 訓練數據(training source 和 Search-R1 一樣),它在其中五個數據集上實現了最優表現,展現出顯著的泛化能力。

Medical QA w/ RAG

實驗二:醫學 QA 任務,s3 展現驚人的跨領域能力。

圖片

我們隨后在五個醫學領域的 QA 數據集上進一步評估了模型性能,測試使用了兩個語料庫:Wikipedia2018(與通用測試一致)和 MedCorp(ACL 2024)。結果顯示,Search-R1 在其訓練語料上表現良好,但在語料變更后顯現出過擬合趨勢;相比之下,s3 能穩定遷移至不同的數據集與語料庫,凸顯出其基于 searcher-only 優化策略的強泛化能力。

reward 優化曲線

圖片

圖 5 展示了我們的 reward 曲線,可以看出 s3 在接近 10 個訓練步驟(batch size 為 120)內便迅速「收斂」。這一現象支持兩個推斷:(1)預訓練語言模型本身已具備一定的搜索能力,我們只需通過合理的方式「激活」這種能力;(2)在一定范圍內,適當增加每輪搜索的文檔數量和最大輪次數,有助于提升最終性能。

消融實驗

圖片

在不同配置下,移除組件對性能的影響(平均準確率)。我們使用了三組設定進行對比,結果表明 s3 的設計在準確性與效率之間達到了最優平衡。

我們進一步通過消融實驗,驗證了 s3 框架中兩個關鍵設計的必要性:

  • 「從原始問題開始檢索」是方向正確的保障:我們發現,以用戶原始問題作為第一輪檢索的起點,有助于模型明確搜索目標、建立有效的檢索路徑。若不設置這一初始點,搜索策略往往偏離主題,導致性能顯著下降。
  • 「文檔選擇」機制顯著降低 token 消耗:該機制允許模型在每輪檢索后主動篩選信息,從而避免將所有檢索結果一股腦送入生成器。通過這一設計,s3 的輸入 token 平均減少了 2.6 至 4.2 倍,不僅提升了效率,也減少了噪聲干擾,對生成效果有正面作用。

總體來看,s3 設計中的「起點初始化 + 動態選擇」是支撐其高效、強泛化性能的關鍵。即使在某些數據集上通過增加輸入內容能獲得短期增益,s3 原始結構在訓練效率、推理速度與生成準確率上依然展現出更穩定的優勢。

FAQ

Q1:為什么我們報告的 Search-R1 結果與原論文不一致?

A1:Search-R1 原文使用 Exact Match(EM)作為 reward 和評估指標,并對模型進行了針對性微調。將這種針對 EM 優化的模型,與其他 zero-shot 方法比較,略顯不公平,也難以衡量搜索本身的效果。因此我們采用更語義友好的 Generation Accuracy(GenAcc),結合 span 匹配和 LLM 判斷,與人類評估一致率達 96.4%。相比之下,EM 只能捕捉字面一致,反而容易誤導模型優化方向。

Q2:s3 為什么不訓練生成器?這樣是否限制了模型性能?

A2:我們設計 s3 的核心理念是:如果我們想真正優化搜索效果,不應讓生成器被訓練,否則會混淆「搜索變好」與「語言模型變強」帶來的增益。凍結生成器不僅提升了訓練效率(節省大模型微調成本),也便于模型遷移到不同任務與生成器,真正做到「搜索能力即插即用」。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2022-05-30 15:44:33

模型訓練GAN

2020-02-29 15:20:18

K8SKubernetes集群

2018-03-25 10:52:06

Amazon S3數據存儲

2018-05-17 22:30:01

Amazon S3收集存儲

2022-11-01 14:50:00

數據計算

2025-06-17 01:00:00

Dify智能體RAG

2013-06-17 09:29:50

老羅羅永浩錘子ROM

2025-05-30 06:48:53

2013-07-03 13:17:52

2013-01-16 09:39:46

亞馬遜S3亞馬遜CloudFro云存儲

2023-05-05 17:49:23

2022-10-19 14:03:45

開源AI

2022-09-03 23:15:04

S3項目源碼

2013-11-25 10:07:26

智能電視機頂盒

2018-08-02 09:44:35

AIOps實踐數據

2023-05-04 15:53:34

強化學習開發

2023-09-03 12:50:59

AI技術

2021-07-22 15:25:14

開源技術 框架

2019-11-15 10:09:07

一覽群智認知智能智能信息助手

2013-03-14 09:39:37

云存儲Azure亞馬遜S3
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 91精品免费视频 | 日韩亚洲欧美综合 | 国产成人综合在线 | 成人欧美一区二区三区在线观看 | 在线观看视频你懂得 | 日韩成人免费中文字幕 | 爱爱视频在线观看 | 久久久久久亚洲欧洲 | 久久免费小视频 | 国产精品欧美一区二区三区不卡 | 欧美视频在线免费 | 色爱综合| 国产精品永久久久久久久www | 成人美女免费网站视频 | 免费成人在线网站 | 九九热在线免费观看 | 99久久精品一区二区成人 | 国产三级大片 | 97伦理电影 | 日本aa毛片a级毛片免费观看 | 久久涩涩| 鸳鸯谱在线观看高清 | 欧美在线观看一区 | 国产欧美一区二区三区在线看 | 99reav| 777zyz色资源站在线观看 | 亚洲视频免费在线观看 | 国产资源在线视频 | 99热热99| 国产区精品 | 欧美bondage紧缚视频 | 99亚洲精品视频 | 久久亚洲一区 | 国产在线一区二区 | 久久蜜桃资源一区二区老牛 | 日本亚洲一区二区 | 美国a级毛片免费视频 | 人人爱干 | 国产片侵犯亲女视频播放 | 黄色国产大片 | 国产日韩一区二区三区 |