開源新王誕生!MiniMax-M1正式發布,超強上下文能力劍指DeepSeek! 原創
一百萬token上下文窗口,八倍于DeepSeek R1的處理長度,訓練成本僅53萬美元——沉寂已久的AI六小虎之一MiniMax用開源新模型重新定義了性價比。
?
6月17日,中國AI領域再掀巨浪。AI創業公司MiniMax正式宣布開源其最新大模型MiniMax-M1,以創紀錄的100萬token上下文處理能力和僅53.47萬美元的訓練成本,創造了開源領域的里程碑。
?
?
這款搭載4560億參數的全新混合專家模型(MoE)已在Hugging Face平臺全面開放,成為目前全球開源模型中長文本推理能力最強的“新王者”。
?
同時,官網也同步上線了新模型:
?
?
與DeepSeek R1相比,M1的上下文處理能力提升了整整8倍,與谷歌Gemini 2.5 Pro處于同一水平,而輸出token量可達8萬。
?
而這么驚艷的表現,MiniMax僅僅使用了512塊H800 GPU集群,三周內就完成了模型訓練,成本僅為DeepSeek R1的十分之一,OpenAI訓練GPT-4的千分之五。
?
技術架構上,M1采用了創新的“閃電注意力機制”,大幅降低了長文本推理的計算負擔。在處理10萬token生成任務時,其計算量(FLOPs)只需要DeepSeek R1的25%。
?
同時,MiniMax自研的CISPO強化學習算法,在收斂速度上較字節跳動的DAPO算法快一倍,比DeepSeek早期采用的GRPO效率提升更為顯著。
?
性能方面,MiniMax-M1在17項主流測試中都有十分出色的表現。
?
在軟件工程基準SWE-bench上,M1-80K版本達到56.0%準確率,雖略低于DeepSeek-R1的57.6%,但大幅領先其他開源模型。在代理工具使用場景(TAU-bench)中,M1甚至擊敗了谷歌Gemini 2.5 Pro,成為開源模型中的佼佼者。
?
【MiniMax-M1與領先開源及閉源模型的基準性能比較】
?
尤其在需要超長文本理解的法律文檔分析、長篇代碼審查等場景,M1展現出接近OpenAI o3和Claude4 Opus的商業級表現。
?
在DeepSeek引爆的開源浪潮之后,MiniMax-M1的發布無疑給中國AI競技場再添一把火。
?
雖然AI六小虎格局已逐步讓位于「基模五強」,但MiniMax用這款百萬級上下文的開源模型,宣告自己仍在牌桌之上。
?
另一方面,M1對DeepSeek等中國AI企業也構成了一定挑戰:它以八倍的上下文處理能力和十分之一的訓練成本,重新定義了國產大模型的性價比標準。
?
當企業用戶面對復雜文檔分析、代碼倉庫級審查等任務時,M1的百萬token窗口提供了閉源模型之外的高性能選擇。
?
這種開源創新正在重塑中國AI的競爭范式。將了不起的模型開源出來,可以讓更多的人有機會在這些模型的基礎上做更多了不起的事情。
?
而今MiniMax接力開源,標志著中國AI企業的集體躍升。
?
當DeepSeek被200多家企業快速接入,背后是國產模型、國產云服務、國產算力共同形成的產業閉環;MiniMax以M1加入戰局,則進一步強化了這種生態協同。
?
這場開源盛宴將加速AI能力的平民化普及。當53萬美元就能訓練出百萬token的頂級模型,當Apache許可證下的MoE架構唾手可得,AI創新將不再被巨頭壟斷。
?
正如MiniMax在技術報告中強調的:“M1為下一代語言模型智能體奠定了堅實基礎,使其能夠推理并應對現實世界的挑戰”。
?
一個由開源力量驅動的AI普惠時代,正在中國企業的接力創新中全速駛來。
