阿里全新推理模型媲美DeepSeek R1:參數僅為后者的1/21
阿里巴巴的Qwen團隊近日正式推出了其最新研究成果——QwQ-32B大語言模型。這款模型擁有320億參數,卻能在性能上與擁有6710億參數的DeepSeek R1相媲美,展現出極高的效率和優化能力。
QwQ-32B的核心優勢在于其通過強化學習實現了性能的顯著提升,僅用DeepSeek R1約1/21的參數量便達到了類似的推理能力。此外,阿里還在模型中集成了與Agent相關的能力,使其能夠進行批判性思考,并根據環境反饋動態調整推理過程。這種能力使得QwQ-32B不僅是一個語言模型,更是一個具備智能決策能力的推理系統。
在一系列基準測試中,QwQ-32B展現了強大的數學推理、編程能力和通用能力。在數學能力測試的AIME24評測集以及代碼能力測試的LiveCodeBench中,QwQ-32B的表現與DeepSeek R1相當,甚至在某些方面超越了后者。此外,在由Meta首席科學家楊立昆領銜的LiveBench、谷歌提出的指令遵循能力評測集IFEval,以及加州大學伯克利分校提出的BFCL測試中,QwQ-32B均取得了優異的成績,超越了DeepSeek R1。
下載.jpg
值得注意的是,QwQ-32B已經在Hugging Face和ModelScope上開源,用戶可以通過Qwen Chat直接體驗這一模型的強大能力。
分析認為,這一成果不僅展示了阿里在大語言模型領域的技術實力,也表明了其在推理模型優化方面的領先地位。QwQ-32B的推出,為人工智能領域的研究和應用提供了新的思路和方向,尤其是在如何通過更少的參數實現更高效推理方面,為行業樹立了新的標桿。