成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

推理正確率下降65.5%!斯坦福、MIT等用「不等式」拷問AI邏輯極限

人工智能
大語言模型在數(shù)學證明中常出現(xiàn)推理漏洞,如跳步或依賴特殊值。斯坦福等高校團隊提出IneqMath基準,將不等式證明拆解為可驗證的子任務。結果顯示,模型的推理正確率遠低于答案正確率,暴露出其在數(shù)學推理上的缺陷。

在大模型頻頻給出「看似完美」答案的今天,我們是否已經(jīng)迎來了真正「會推理」的AI?

多位網(wǎng)友分享了自己的經(jīng)歷,「我試過用LLMs做正割和正切的定理的證明,但是結果錯誤的太多了!」

圖片圖片

「大語言模型在解題的時候可能只是從訓練數(shù)據(jù)集中概括了推理模式,但是并沒有具體問題用具體的方法分析。」

圖片圖片

「大語言模型的幻覺始終是諸多人工智能應用(包括數(shù)學證明)的主要障礙!」

圖片圖片

這些大模型在面對數(shù)學證明題目時,自信滿滿地輸出了「解題思路」和「證明過程」,一切看上去井井有條。但你是否注意到,很多推理其實沒有解釋關鍵步驟,甚至直接用一個「看起來合理的句子」替代了邏輯推導?

這不是個別現(xiàn)象,而是結構性問題。近日,來自斯坦福大學、麻省理工學院(MIT)與加州大學伯克利分校的研究團隊聯(lián)合提出了一個創(chuàng)新性數(shù)學不等式基準IneqMath,專門用于評估語言模型在復雜數(shù)學推理中的嚴謹性與合理性。

圖片圖片

論文鏈接:https://arxiv.org/abs/2506.07927

官方網(wǎng)站:ineqmath.github.io

數(shù)據(jù)集鏈接:https://huggingface.co/datasets/AI4Math/IneqMath

代碼鏈接:https://github.com/lupantech/ineqmath

在線排行榜:https://huggingface.co/spaces/AI4Math/IneqMath-Leaderboard

題目可視化展示:https://ineqmath.github.io/#visualization

圖片圖片

圖片圖片

AI會答題,但它真的會「證明」嗎?

過去幾年,像GPT-4、Claude、Gemini等大模型不斷刷新我們對AI能力的認知。它們已經(jīng)能寫論文、解題,甚至「解釋」自己的推理過程。

但研究者發(fā)現(xiàn)一個驚人的現(xiàn)象:很多模型確實能給出正確答案,但它們的推理過程卻漏洞百出,比如:

  • 跳過中間關鍵步驟,直接下結論
  • 用特殊數(shù)值代入來「猜測」一般規(guī)律
  • 數(shù)值近似粗糙,邏輯推導不閉合
  • 寫得像人話,但并不是真正的數(shù)學語言

這意味著,當前大模型并不具備穩(wěn)定、可靠的邏輯結構。它們可以「合理地猜對」,但無法「嚴格地推理對」。

讓AI暴露推理盲點

為了解決這一問題,研究團隊構建了全新的數(shù)學評測體系IneqMath,核心思路是:

  1. 用不等式證明題作為切入點
  2. 將證明過程拆解為「選擇題」和「填空題」形式的自然語言任務,包括Bound Estimation(界限估計)和Relation Prediction(關系預測)
  3. 構建訓練、驗證與測試數(shù)據(jù)集,涵蓋奧數(shù)級難度題目與復雜定理組合
  4. 引入五種「自動評審器」,構成LLM-as-Judge框架,審查模型每一步推理的合理性

這種「非形式化但可驗證」的方法,比單純要求形式邏輯更貼近人類實際思維,也能同時定量衡量大語言模型的答案和過程的推理準確性。

其中Bound Estimation(界限估計)和Relation Prediction(關系預測)的題目示例如下:

Bound Estimation(界限估計)測試集題目示例Bound Estimation(界限估計)測試集題目示例

Relation Estimation(關系判斷)測試集題目示例Relation Estimation(關系判斷)測試集題目示例

從多維角度審查AI推理過程

為了深入評估大模型的推理嚴謹性,研究團隊設計了一個名為LLM-as-Judge的自動審查框架,內(nèi)部由五個獨立的「評審器」組成,專門從多個維度對模型的解題過程進行細致分析。

這些「評委」分別是Final Answer Judge用來衡量最終的答案是否正確、和4個Step-wise Judge用來從不同的維度衡量推理的步驟是否是正確的。

借助這一系統(tǒng),研究者不再僅僅關注模型「猜得準」與否,而是能逐步拆解每一步邏輯鏈,判斷模型是否真正具備嚴密推理的能力,而非只是「蒙對了結論」。

這4個Step-wise Judge分別是Toy Case Judge、Logical Gap Judge、Numerical Approximation Judge、Numerical Computation Judge

Toy Case Judge

它的職責是識別模型是否通過代入個別特殊數(shù)值(如a=1, b=2)來推導出對所有情況都成立的結論。

圖片圖片

可以看到,該模型在求解過程中借助特定數(shù)值的帶入,并依賴代入后表達式的大小關系來推斷其最小上界,這實際上是一種以有限實例推及普遍結論的推理方式。

Toy Case Judge針對模型結果中這種通過特殊取值進行推斷的現(xiàn)象進行了深入剖析,精準地定位了問題,并最終判定為False,說明該結論因基于特例而不具備普遍性,應視為不正確。

Logical Gap Judge

它主要負責判斷模型的推理鏈條中是否存在關鍵步驟的跳過、推導中缺乏解釋的等價變換,或者直接從條件躍遷到結論而沒有交代中間過程。

圖片圖片

可以看到,該語句聲稱「數(shù)值檢驗確認最小值發(fā)生在 x = 1」,卻完全未展示任何實際數(shù)值結果、評估過程或可視/分析證據(jù)來支撐這一說法,這實際上是一種無充足依據(jù)的斷言式推理。

Logical Gap Judge針對這類缺乏實證數(shù)據(jù)與分析佐證的論斷進行了深入評估,精準定位了其中的邏輯空缺,并最終判定為False,指出該結論因證據(jù)不足而不具備說服力,應被視為錯誤。

Numerical Approximation Judge

它會檢查模型是否使用了模糊不清的數(shù)值估算替代了精確計算,進而破壞了數(shù)學證明所要求的嚴謹性。

圖片圖片

可以看到,上述計算依賴于三角函數(shù)的近似十進制值。僅通過將S的近似值與114做比較來推斷二者關系,并不具備嚴格的數(shù)學依據(jù)。

這正是Numerical Approximation Judge所關注的問題:針對這種因過度依賴粗糙近似而產(chǎn)生的誤導性結論,Judge進行了詳盡審查,精確識別了其中的數(shù)值近似漏洞,最終判定為False,表明該結論因數(shù)值近似失當而不夠嚴謹,應被視為錯誤。

Numerical Computation Judge

它專注于捕捉模型在基礎運算中出現(xiàn)的錯誤,比如簡單的乘法加法算錯,或者代入過程中產(chǎn)生了錯誤的數(shù)值推導。

圖片圖片

可以看到,Numerical Computation Judge會首先從響應文本中自動識別出所有的數(shù)值計算的表達式

圖片

然后基于這些等式生成對應的驗證代碼(這里使用了Sympy的Rational類型)執(zhí)行后卻發(fā)現(xiàn)出現(xiàn)了數(shù)值計算上的錯誤。

Numerical Computation Judge正是通過這種提取–編碼–執(zhí)行的數(shù)值檢驗流程,精準地定位到計算環(huán)節(jié)的遺漏或錯誤,并最終判定該推斷為False,指出原步驟因數(shù)值計算不正確而錯誤。

令人震驚的「Soundness Gap」

研究團隊使用LLM-as-Judge在GPT-4、Claude、Grok、Gemini、Llama等29款主流模型上進行了系統(tǒng)評估,結果顯示:

  • Grok3 mini最終答案正確率達71.5%,但推理過程正確率僅為6.0%
  • 所有模型推理正確率最多下降65.5%,說明它們經(jīng)常「猜得準但講不清」
  • 開源模型(如Mistral、Llama)的「邏輯嚴謹性」表現(xiàn)最弱,不超過6%

這意味著目前大語言模型推理鏈條中存在嚴重結構性缺陷,即使答對了,也無法保證中間過程有邏輯閉環(huán)。

圖片圖片

IneqMath打榜

為了推動大語言模型在嚴謹數(shù)學論證上的突破,科研團隊搭建了一個持續(xù)更新的IneqMath排行榜,向全球開發(fā)者開放提交。

不論你是在調(diào)試輕量化模型,還是在優(yōu)化頂級推理系統(tǒng),都能將成果上傳平臺,自動化評測其答案正確率與推理完整度。

圖片圖片

排行榜鏈接:https://huggingface.co/spaces/AI4Math/IneqMath-Leaderboard

排行榜提供多種篩選功能,讓您輕松挑選感興趣的模型類別;只需點擊表頭,即可按照任意字段自定義排序。頁面還直觀展示了各模型的關鍵參數(shù),便于快速對比與查看。

如需提交自己的模型結果,點擊進入網(wǎng)頁后即可看到提交界面。上傳模型的結果,并填寫對應的模型參數(shù)后,您的模型結果就會自動的在后臺進行評估。

提交后,點擊頁面上方的「Process Query」按鈕,輸入「提交時填寫的郵箱地址」,即可查看評估結果。

在此界面,你可以將成績一鍵發(fā)布至公共排行榜,向大家展示你的出色表現(xiàn);如對當前排名不滿意,也可隨時在此將其移除。

參考資料:https://ineqmath.github.io/

責任編輯:武曉燕 來源: 新智元
相關推薦

2025-06-20 08:54:00

模型AILLM

2019-12-16 14:33:01

AI人工智能斯坦福

2025-01-17 10:26:19

模型開發(fā)ChatGPT

2017-11-28 14:18:29

2024-12-24 14:10:00

數(shù)據(jù)模型訓練

2022-01-11 10:22:26

量子計算芯片超算

2018-01-23 16:48:47

AI

2019-03-24 12:11:47

AI 數(shù)據(jù)人工智能

2025-02-28 09:52:00

2021-03-30 08:28:43

SaaS公有云云計算

2025-04-09 11:25:36

2023-12-08 13:22:00

數(shù)據(jù)模型

2012-03-21 21:38:27

蘋果

2009-05-19 09:06:41

Apple斯坦福iPhone

2013-01-31 09:45:14

斯坦福超級電腦百萬內(nèi)核

2025-04-09 04:22:00

2021-03-05 10:57:33

AI 數(shù)據(jù)人工智能

2021-03-10 14:48:27

人工智能

2022-07-04 09:12:09

AI技術論文

2019-03-27 10:47:05

人工智能法律AI
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产欧美日韩一区二区三区在线 | 国产高清一区二区三区 | 一本大道久久a久久精二百 欧洲一区二区三区 | 国产精品欧美日韩 | 日韩在线精品视频 | 欧美一区二区三区视频 | 亚洲人成人一区二区在线观看 | 亚洲视频 欧美视频 | 鲁一鲁资源影视 | 久久综合九九 | 亚洲精品国产成人 | 狠狠综合久久av一区二区老牛 | 欧美aⅴ| 99久久精品免费看国产免费软件 | 九九热在线免费视频 | 日本精品国产 | 国产黄色在线观看 | 91精品国产91久久综合桃花 | 亚洲最大av | 国产高清免费在线 | 亚洲视频欧美视频 | 日本一二三区电影 | 嫩草视频在线看 | 精品国产乱码一区二区三区 | 亚洲第一福利视频 | 中文字幕国产视频 | 人人九九| 亚洲成人中文字幕 | 亚洲欧洲在线观看视频 | 精品欧美一区免费观看α√ | 91精品久久久久久久久 | 91原创视频在线观看 | 日本亚洲欧美 | 亚洲欧美视频一区二区 | 99久久99久久精品国产片果冰 | 午夜精品福利视频 | 亚洲高清成人在线 | 黄色大片免费网站 | 91亚洲国产成人久久精品网站 | 国产精品99久久久久久动医院 | 日韩在线视频精品 |