GPT-4o 的數學又雙叕進步了?來 MathBench 看看新版 GPT-4o 到底強在哪!
隨著現代大語言模型(LLMs)如 OpenAI 的 ChatGPT 和 GPT-4 的出現,LLMs 展示了生成類人對話和解決復雜數學難題的非凡能力。從 Meta 在 4 月 18 日發布 Llama3-8B & 70B 開始,Qwen 開源的首個百 B 大模型 Qwen-1.5-110B,到深度求索的 MoE 模型 DeepSeek-V2,還有近幾日 OpenAI 放出的大招 GPT-4o,號稱更低的價格,更強的性能,大家都號稱自己的新模型數學能力頂呱呱,但事實真是這樣嗎?
如何透明化評測大模型的各項數學能力如今成了大家的難題,因為開源數據集往往評測角度較為局限,如常用的 GSM8k 專注日常計算,MATH 只專注于高中數學競賽。
再加上,負責大模型數學部分的產品經理往往對新訓練的模型有下面的小小期待:
- ??想要全面知道從小學,初中到大學每個階段模型數學表現各怎么樣
- ??中英文能力都要體現
- ??要是每道題都有知識點標簽就好了
- ??emmm,能不能再考下理論題,天天做應用題也不知道是不是模型基礎沒打好
- ??測試出的結果要魯棒,真實反映模型能力
- ??不想收集一大堆數據集,最好上面的內容能一次測試完(-v-)
- .....
這要求都能滿足嗎?還真能!
在最新的 ACL2024 中,由上海人工智能實驗室聯合香港中文大學,北京航空航天大學和南京大學提出的 MathBench 打破了大模型數學評測不透明的現狀,且已經被 ACL2024 Findings 接收。
- Paper:
???https://arxiv.org/abs/2405.12209?? - Github:
???https://github.com/open-compass/MathBench?? - MathBench LeaderBoard:
???https://open-compass.github.io/MathBench??
MathBench 結構及特點
正如本文開頭所描述的,傳統評估 LLMs 數學能力的基準存在一些局限性,如單一視角的解決問題能力評估和缺乏全面的學段分級。MathBench 彌補了這些不足,提供了嚴格的數學能力評估新基準。
MathBench 整體結構示意
相比傳統的數學評測集,MathBench 有以下特點:
- 多維度的知識框架:MathBench 配有一個多層次知識體系,具有從基礎計算,小學到大學的 5 階段的豐富題目,每階段都配有相應的3層細粒度知識點,一次評測即能從廣度和深度兩個維度上掌握模型能力,不留遺憾。
- 理論與應用兼顧:“基礎不牢,地動山搖”。MathBench 分為MathBench-A(應用能力)和MathBench-T(理論能力)兩個子集,不僅包含實際應用問題,還包含相關領域專家精心收集的基礎數學概念和推論題。
- 雙語支持:對于上述的所有知識層次,以及理論應用題,MathBench 都提供中英文題目,且中英題目根據語境學習現狀獨立收集,拒絕機翻,以保證評測結果的合理性。
- 魯棒評測:針對數學評測難以抽取答案的現狀,MathBench 中的大部分題目為經過專家標注的選擇題,保證了選項合理且有一定的干擾度,并且采用循環評測(CircularEval)作為基礎評測方式,模型需要多次答對打亂選項順序的同一題目才認為該題目被模型所掌握。
- 來源可靠:MathBench 中約 80% 題目為新收集的題目,來源大部分為專業考試,如高考、中考等,且經過專門校驗。
MathBench的5階段3層知識點結構
(小學與基礎運算因有相同知識點體系而合并)
各大模型在 MathBench 上的表現
下面就讓我們看一下在 MathBench 作為數學能力照妖鏡下各模型的表現吧:
總體結果,GPT-4o 優勢明顯,國產模型緊隨其后
MathBench理論與應用分級測評結果
(A代表應用題結果,T代表理論題目)
在應用題上:
- GPT-4o領先較大,在高學段尤為明顯
部分國產模型,如 Qwen-Max-0428 和 DeepSeek-V2-API 都已經有著超越 GPT4-0125-Preview 的表現,但離最新版的 GPT-4o 仍有不小差距。通過 MathBench 的多階段細分結果可以發現,差距在較高學段,如高中和大學的題目上尤為明顯。如 GPT-4o 在大學階段的應用題目上雖然只有 54.0的CircularEval 分數,但相對 Qwen-Max-0428 已經有著接近翻倍的表現。 - 部分開源模型實力強勁
如 Llama3-70B-Instruct 和 Qwen1.5-110B-Chat 有著超過 GPT3.5-Turbo-0125,接近 GPT4-0125-Preview 的表現。DeepSeek-Math-7B-RL 作為 7B 量級的開源數學模型表現亮眼,在應用題目上甚至超過了 Qwen-72B-Chat。
在理論題上:
- GPT-4o 各學段全面領先,展現扎實的基本數學功
作為基本數學理論能力的展現,MathBench-T 中不僅考察模型基本數學知識,還加入常用的推論,以及精心設計的干擾項來迷惑模型,所以模型難以通過簡單背誦來得到高分。GPT-4o 在此階段全面領先各 API 模型,拿下應用理論雙第一名??,證明了其不僅基礎扎實,且會熟練運用。 - 理解理論并不代表能夠熟練應用
如 Qwen-1.5-110B-Chat 雖與 GPT-4o 在理論階段有著相似的分數,但在應用階段兩者差距較大,可能因為在較高階段的數學知識上,運用要比理論需要更多的技巧,比如在高中和大學階段,兩者的應用分數差距越來越大,而理論上卻沒有相似的明顯差距。
模型整體分數趨勢
下面是應用階段的多個模型平均分數的整體趨勢。
可以發現,在基礎運算(Arithmetic)階段和小學數學(Primary)階段有著類似的難度,而從初中起,隨著學段的增加,模型的平均表現下降明顯:
MathBench 應用題在各學段上的平均模型結果,呈現自然梯度趨勢
中英文雙語言結果對比
下面是眾多大語言模型在 MathBench 上的中英雙語言結果對比,按語言平均分從從小到大排序。
其中某些模型有著較為明顯的語言 Gap,如 MammoTH-13B,MetaMath-Llemma-7B 以及 Llama-3-70B-Instruct 等模型明顯偏向于英文,而 GPT-4o 和 GPT-4-0125-Preview 在中英數學上有著相近的表現。
值得注意的是,為了 MathBench 的中英成績能代表該語言環境下的真實成績,在收集過程中并沒有將題目相互翻譯,所以在對比中僅供參考,因為題目不是中英文一一對應的關系。
