成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

LLM「想太多」有救了!高效推理讓大模型思考過程更精簡

人工智能 新聞
大模型雖然推理能力增強,卻常常「想太多」,回答簡單問題也冗長復雜。Rice大學的華人研究者提出高效推理概念,探究了如何幫助LLM告別「過度思考」,提升推理效率。

LLM的推理能力顯著增強,然而,這個「超級大腦」也有自己的煩惱。

有時候回答會繞好大一個圈子,推理過程冗長又復雜,雖能得出正確答案,但耗費了不少時間和計算資源。

比如問它「2加3等于多少」,它可能會從數(shù)字的概念、加法原理開始,洋洋灑灑說上一大通,這在實際應用中可太影響效率啦。

來自Rice大學的華人研究者提出了「高效推理」的概念,在保證回答準確的同時,更快、更簡潔地給出答案。

圖片

論文鏈接:https://arxiv.org/abs/2503.16419

項目鏈接:https://github.com/Eclipsess/Awesome-Efficient-Reasoning-LLMs

接下來,深入探討LLM的高效推理,幫它們告別「過度思考」。

別讓模型「想太多」,邁向高效推理

LLM通過思維鏈(CoT)提示等技術,在復雜推理任務中表現(xiàn)亮眼。

CoT就像是給模型裝上了「思考引擎」,讓它能一步一步地推導,把推理過程清晰地展現(xiàn)出來。

不過,這份出色的表現(xiàn),需要消耗大量計算資源。

LLM經(jīng)常出現(xiàn)「過度思考」的情況,生成長而冗余的推理內(nèi)容,增加了延遲和資源消耗。

圖片

本文聚焦于如何在提升或保持模型性能的同時,優(yōu)化推理過程,這對計算資源有限的實際場景十分重要。

研究者梳理了應對「過度思考」,實現(xiàn)高效推理的技術手段:

  • 基于模型的高效推理:即考慮將模型優(yōu)化為更簡潔的推理模型,或直接訓練高效推理模型。
  • 基于推理輸出:旨在推理過程中動態(tài)減少推理步驟和長度。
  • 基于輸入提示:根據(jù)輸入提示的屬性(如難度或長度控制)提高推理效率。

此外,研究者還介紹了用高效數(shù)據(jù)訓練推理模型,探索小模型的推理能力,并討論了評估方法和基準測試。

認識「過度思考」

LLM產(chǎn)生冗長、不必要的推理過程時,就出現(xiàn)了「過度思考」現(xiàn)象。

在回答「0.9和0.11哪個大」這個簡單的問題時,DeepSeek-R1和QwQ-32B這兩個模型給出的答案都十分冗長。

它可能會從十進制的原理開始,分析小數(shù)點后的每一位數(shù)字,還會嘗試用各種方法驗證,比如轉化為分數(shù)或在數(shù)軸上表示,最后才給出答案。

雖然答案是對的,但推理過程又長又啰嗦,耗費了大量時間和計算資源。

圖片

DeepSeek-R1:好的,我得判斷0.9和0.11誰更大。它們都是小數(shù),但小數(shù)點后的位數(shù)不一樣。我先想想每個小數(shù)的含義,0.9就是十分之九,因為小數(shù)點后第一位是十分位。等等,我換個方法確認下,把它們轉成百分數(shù)試試……為了確保沒錯,我在數(shù)軸上表示一下吧。還有其他驗證方法嗎?用減法好像也行……或者……我確定答案是0.9。(616字,19秒)

QwQ-32B:要找出0.9和0.11哪個大。它們是小數(shù),逐位比較看看?我回憶下小數(shù)比較的規(guī)則……0.9 小數(shù)點后有1位,0.11有2位,寫法上是不是要調(diào)整下……不對,我再檢查下,是不是哪里搞錯了。換個思路……另一種方法是……最終答案是0.9更大。(602字,42秒)

從這個例子,能看出「過度思考」的幾個特點:回答簡單問題,兩個模型都寫了600多字。推理過程中有很多重復、多余的驗證方法。

推理內(nèi)容越長,處理所需的時間就越多。模型會反復懷疑自己的推理過程。

在資源有限的環(huán)境,或像自動駕駛、智能交互助手這類需要實時響應的應用場景中,「過度思考」帶來的效率低下問題就會格外突出。

開啟高效推理

高效推理方法有以下三類,基于模型的有效推理、針對結果的優(yōu)化和借助輸入提示的有效推理。

圖片

基于模型的有效推理

一種有效的做法是在RL中加入長度獎勵,引導它生成簡潔的推理。

以前,模型訓練的時候主要關注答案是否正確、格式是否規(guī)范。現(xiàn)在研究人員給它加了一個新的「考核指標」——推理長度。

就像老師不僅要求學生答對題,還要求答題過程簡潔明了。

圖片

獎勵函數(shù)通常是這樣的:

圖片

其中α用來調(diào)節(jié)長度懲罰在獎勵函數(shù)中的權重,R_length是根據(jù)推理響應長度設置的懲罰項,計算方式如下:

圖片

模型為了獲得更多獎勵,就會在保證答案準確的同時,盡量少用token。

圖片

利用可變長度的CoT數(shù)據(jù)進行監(jiān)督微調(diào),也是提升推理效率的有效方法。

這就好比給模型提供了不同難度和長度的「練習題」,讓它學會靈活應對各種情況。

圖片

訓練數(shù)據(jù)中既有完整詳細的推理鏈,也有簡短、高效的推理路徑。

通過這些示例,模型就能學會在不降低準確性的前提下,采用更簡潔高效的推理模式。

圖片

在微調(diào)模型的時候,既可以采用像LoRA這樣的標準微調(diào)方法,對模型參數(shù)進行小范圍的調(diào)整;也可以采用漸進式微調(diào),讓模型慢慢適應新的思考節(jié)奏,逐步提高推理效率。

優(yōu)化推理輸出,精簡思考過程

從推理輸出的角度,研究人員嘗試通過創(chuàng)新的方式來壓縮推理步驟,讓模型的「思考過程」更加精簡。

這些方法不改變模型的參數(shù),直接對推理輸出的結果進行優(yōu)化。

潛在推理技術能把推理步驟壓縮為更精簡的表達形式,圖中展示了多種以更高效的格式編碼的潛在推理方法:

  • Coconut:在訓練過程中,逐漸減少推理內(nèi)容的冗長部分。
  • CODI:運用自蒸餾的方式,壓縮推理內(nèi)容。
  • CCOT:把CoT推理壓縮為潛在表征。
  • SoftCoT:借助小型輔助模型,將潛在思維投射到較大的模型中。

圖片

這些方法通常會用到嵌入函數(shù),把冗長的推理內(nèi)容映射到一個更緊湊的空間里,用公式表示就是:

圖片

E_compact是壓縮后的推理表示,f是學習到的變換函數(shù)。

除了利用潛在表示,在推理過程中動態(tài)調(diào)整推理策略也是提高效率的關鍵。

動態(tài)推理會根據(jù)每個問題的具體情況,按需生成推理步驟,圖中介紹了兩種典型的技術。

圖片

在獎勵引導方面,推測拒絕優(yōu)化了最佳N解碼算法。在生成多個響應的過程中,根據(jù)獎勵模型的評估,及時丟棄低質(zhì)量的輸出,減少不必要的計算開銷。

面對復雜問題時,它會先大量生成可能的推理路徑,然后快速排除那些沒有希望的路徑,只保留高質(zhì)量的路徑繼續(xù)推理,大大提高了推理效率。

這兩種技術的核心思路都是,根據(jù)問題的復雜程度靈活調(diào)整推理深度,用公式表示為:

圖片

借助輸入提示,巧妙引導思考

從輸入提示的角度入手,也能讓模型推理變得更高效。

圖片

長度約束提示簡單又實用,直接在提示里要求模型控制推理長度,比如「用不超過10個token回答下面的問題」。

CoD方法則讓模型在逐步推理時,只保留每個思考步驟的最少草稿,最多用五個單詞。

比如在解答數(shù)學題時,模型不再詳細寫出每一步的推導過程,而是用簡潔的幾個詞概括關鍵思路,這樣在保證準確性的同時,大大減少了token的使用。

不同的任務難度不同,對推理的要求也不一樣。

因此,根據(jù)輸入提示的屬性進行推理路由也是一種提高效率的策略。

RouteLLM訓練了一個查詢路由器,它根據(jù)問題的復雜性將查詢分配給合適的模型。

簡單的問題就交給速度快但推理能力較弱的模型處理,復雜的問題則交給能力更強的模型,這樣可以充分發(fā)揮不同模型的優(yōu)勢,提高整體推理效率。

Self-Ref方法讓LLM能根據(jù)自身的不確定性分數(shù)來決定是否需要路由到更強大的模型。

如果模型對自己的答案不太確定,就會自動尋求更強大模型的幫助,減少不必要的推理步驟。

其他探索

除了上述方向,研究人員還在數(shù)據(jù)、模型和評估等方面進行了深入探索,以進一步提升LLM的推理效率。

用更少數(shù)據(jù),辦更多事

很多研究發(fā)現(xiàn),訓練數(shù)據(jù)的質(zhì)量和結構,對模型的高效推理能力影響很大。

通過精心挑選和組織訓練數(shù)據(jù),即使數(shù)據(jù)量少,也能讓模型有出色的表現(xiàn)。

  • 數(shù)據(jù)多樣性:讓模型接觸各種推理模式和問題類型。
  • 數(shù)據(jù)質(zhì)量:選擇高質(zhì)量的樣本,而不只追求數(shù)量多。
  • 推理結構:明確教模型逐步推理,而不是直覺推理。

LIMO打破了傳統(tǒng)的觀念,不再追求數(shù)據(jù)的數(shù)量,而是專注于質(zhì)量。

它會從難度、通用性和知識多樣性等方面挑選高質(zhì)量的問題,然后再配上結構合理、驗證嚴格的解決方案。

用這精心挑選的817個樣本,LIMO訓練出來的模型就能超越那些用了10多萬個樣本訓練的模型,是不是很厲害?

S2R給LLM注入了自我驗證和自我糾正的能力,就像給模型請了一個私人教練。

它先在一個精心挑選的數(shù)據(jù)集上對模型進行微調(diào),讓模型初步具備這些能力,然后再通過RL進一步提升。

只用了3100個初始化樣本,S2R微調(diào)后的模型在推理任務中的表現(xiàn),比很多用大量長CoT蒸餾數(shù)據(jù)訓練的模型還要好。

小模型的「逆襲之路」

LLM雖然能力很強,但它對計算資源的要求也很高,在一些資源有限的場景里就有點施展不開。

這時候,小語言模型(SLM)就有了用武之地。

不過,要讓SLM在有限的資源下也能有強大的推理能力,還得給它來點「特殊訓練」。

知識蒸餾是提升SLM推理能力的重要方法,簡單來說,就是把LLM的智慧傳遞給SLM。

混合蒸餾就像是把不同的「知識精華」混合在一起,有的把長、短CoT推理示例混合,有的把CoT和PoT(Program of Thought)結合,讓SLM能吸收更全面的知識。

反事實蒸餾則像是給SLM創(chuàng)造了一些假設情境,通過對原始問題進行特殊處理,生成多視角的CoT,讓SLM從不同角度學習知識。

還有反饋驅(qū)動的蒸餾技術,它會不斷優(yōu)化蒸餾數(shù)據(jù)集,像給SLM提供越來越精準的學習資料。

另外,一些方法還把探測和檢索機制融入蒸餾過程,或者在蒸餾時讓模型根據(jù)任務動態(tài)調(diào)整推理策略,這些都幫助SLM更好地學習LLM的推理能力。

評估推理能力

評估高效推理,需要綜合考慮準確性和推理效率:

  • 準確性:看最終給出的答案是否正確。
  • 效率:token使用數(shù)量、推理花費的時間、消耗的計算資源。

實際評估時,通常會先把效率指標標準化處理,再和準確性指標結合起來,形成一個綜合指標:

圖片

既獎勵正確性,又鼓勵推理的簡潔性。

Sys2Bench涵蓋了算術、邏輯、常識、算法和規(guī)劃等多個領域的任務,用11個不同的數(shù)據(jù)集對LLM進行全方位的測試。

通過這個測試,發(fā)現(xiàn)僅靠增加推理時的計算資源,并不能讓模型在所有任務中都表現(xiàn)出色,提升LLM的推理能力需要多種方法結合。

還有一些研究專門考察不同的推理策略對模型性能的影響,以及測試時擴展(TTS)策略和模型性能之間的關系。

對LLM的過度思考問題,也有專門的評估方法。

研究人員開發(fā)了一個評估框架,可以深入分析模型的推理過程,找出像分析癱瘓、異常行為和過早放棄等模式。

他們提出了「過度思考分數(shù)」,就像是一個健康指標,分數(shù)越高,說明模型過度思考的問題越嚴重,任務性能就越差。

通過選擇過度思考分數(shù)低的解決方案,可以讓模型性能提高30%,同時降低43%的計算開銷。

責任編輯:張燕妮 來源: 新智元
相關推薦

2025-02-17 08:43:00

模型推理訓練

2023-08-11 16:17:55

2023-05-30 14:17:00

模型推理

2024-09-09 08:31:15

2024-02-01 08:34:30

大模型推理框架NVIDIA

2025-04-21 08:52:00

大語言模型生成AI

2025-04-30 09:09:00

2012-05-16 19:18:27

Google

2013-09-08 22:37:29

2024-01-15 08:17:00

模型技術

2020-12-07 15:04:26

Windows文件管理器工具

2024-11-29 14:50:00

模型數(shù)據(jù)

2011-08-05 10:19:03

活動目錄

2011-08-10 14:45:10

Windows7RT7Lite

2025-05-21 09:02:20

2020-01-17 08:45:07

AI 數(shù)據(jù)人工智能

2015-04-03 09:27:45

智能設備微信

2023-08-09 07:04:17

清華微軟LLM

2024-11-21 15:44:21

2012-11-20 09:35:21

諾基亞Windows PhoLumia
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 免费中文字幕 | 人人艹人人 | 欧美成人免费在线视频 | 在线视频一区二区三区 | 亚洲一区二区三区在线 | 精品国产乱码久久久久久丨区2区 | av网站免费在线观看 | 毛片一级片 | 91精品国产综合久久香蕉麻豆 | 粉嫩一区二区三区国产精品 | 午夜播放器在线观看 | 91视频一区二区 | 91免费在线 | 在线免费看91 | 特级丰满少妇一级aaaa爱毛片 | 美女逼网站 | 99精品视频网 | 精品国产色 | 亚洲欧美视频一区 | 欧美精品一区免费 | 特级毛片 | 一级黄大片 | 九九热这里只有精品6 | 先锋资源吧 | 免费三级网站 | 91资源在线 | 精品欧美 | 日韩欧美亚洲 | 日日操夜夜操天天操 | 2018中文字幕第一页 | 久久久久久高潮国产精品视 | 1区2区3区视频 | 波多野吉衣在线播放 | 国产精品自产av一区二区三区 | 香蕉视频1024 | 欧美激情亚洲激情 | 黄色av观看| 免费观看av | 日本不卡一区二区三区在线观看 | 日韩一区二区不卡 | 亚洲精品国产一区 |