實測百萬token上下文模型MiniMax-M1:RAG真的要被淘汰了?
我還在電腦前測試一個新模型,突然意識到一個問題讓我興奮得睡不著覺。
你有沒有想過,如果AI能"記住"一整本書的內容,會發生什么?不是那種似是而非的"記住",而是真正的、完整的、一字不漏的記住。
前兩天,MiniMax發布了最新模型——MiniMax-M1,直接把上下文拉到了一百萬token!
這是什么概念?我花了一晚上測試,發現它相當于能一次性"讀完"300頁的書,而且全程幾乎不忘記任何細節。
從卡茲克的文章?? 作為一個每天都要處理大量文檔的人,我當時的第一反應是:臥槽,這不是要革命了嗎? 更勁爆的是,這個消息一出,連VentureBeat這種美國頂級科技媒體都專門報道了。 VentureBeat報道 要知道,VentureBeat可是"美國前十科技網站"之一,能被他們關注說明這事兒確實不小。 說實話,我等這樣的模型等了很久很久。 很多時候,我想讓AI幫我分析一份上百頁的調研報告。結果呢?DeepSeek模型直接甩給我一句"達到對話長度上限"。 DeepSeek上下文限制 那一刻我就想,什么時候AI能像人一樣,可以完整地讀完我提供的全部資料再和我交流? 你們肯定也遇到過這種情況:想讓AI總結一篇50頁的論文,它告訴你太長了;想分析一個完整的項目代碼,它說放不下;想處理一份詳細的商業計劃書,還是放不下... 超長內容被自動轉為文件 或者即使可以放下,但經常感覺給你的回答是碎片式的,遺漏了一大塊重要內容。 因為這些功能背后每次都得用RAG(檢索增強生成),需要把文檔切成小塊,讓AI一點點處理。 AI對話和RAG 但說句心里話,這就像讓一個人戴著眼罩摸象——只能感知局部,很難把握全貌。 遇到這種要上傳資料的場景,我經常懷疑AI是不是真的理解了我要表達的完整意思。 現在好了!百萬token直接把整頭大象都塞給AI,讓它完整地"看"和"理解"。這種感覺,就像給AI做了近視手術,突然世界都清晰了。 國內也有公司吹過百萬上下文,但我都試過,很多都是用RAG做的假象。 各模型上下文對比 這次M1是真正原生的百萬Token上下文!我這兩天測試下來,真的是又驚又喜。 從MiniMax的報告可以看到,在長上下文理解的評測標準MRCR上,M1的表現穩穩進入第一梯隊,幾乎和谷歌Gemini比肩! MiniMax M1 體驗 但數字是一回事,實際體驗又是另一回事。 我最感興趣的是TAU-bench(代理工具使用場景)的表現。這個測試很有意思,專門測試AI在復雜多輪對話中調用工具的能力。 結果讓我眼前一亮:M1不僅領跑所有開源模型,還戰勝了Gemini-2.5 Pro,和OpenAI O3分數接近,只是稍遜于Claude 4 Opus。 要知道,OpenAI O3、Gemini-2.5 Pro、Claude 4 Opus都是海外頂級閉源模型,每個都是"神仙"級別的存在。 M1開源地址:https://github.com/MiniMax-AI/MiniMax-M1 M1不但完全開源,性能還能接近這些大佬,作為一個開源愛好者,我內心真的很激動。 這意味著什么?意味著我們終于有了一個既開源又強大的選擇,不用再受制于海外閉源模型的各種限制了! 更讓人震驚的是訓練成本。 得益于他們獨創的閃電注意力機制和CISPO強化學習算法,整個強化學習階段只用了512塊H800三周時間,總花費53.47萬美金。 這個成本低到什么程度?比預期少了一個數量級! API價格也很親民,32k上下文下,百萬Token不到1塊錢。還采用了分段計費,用多少付多少。 第一時間,我就跑去了官方網站:https://chat.minimax.io/ 官網:https://chat.minimax.io/ 這里有個小細節要注意:一定要選擇chat模式并打開Thinking模式,我開始就是因為沒注意這個設置,還在納悶怎么效果一般般。 我用官方的案例做了個迷宮生成器測試,效果真的讓我眼前一亮。 我用了下面的提示詞: Create a maze generator and pathfinding visualizer. Randomly generate a maze and visualize A* algorithm solving it step by step. Use canvas and animations. Make it visually appealing. 沒想到它真的做出來了,而且效果比我想象的還要好! 還有一個驚喜是他們的Agent模式。我受到沃垠文章???我用MiniMax Agent做PPT,實在太爽了??的啟發,試了試讓AI做PPT,結果做得還真不錯。 我把鏈接貼出來給大家看看:??https://agent.minimax.io/share/281365721911444?? 老實說,看到這個生成的PPT時,我在電腦前愣了好一會兒——頁面簡潔干凈,審美居然還挺在線的。 我們也可以用官方API調用,官方的API性價比和穩定性都是最好的。 官方API:https://platform.minimaxi.com/document/platform%20introduction 說實話,配置Cherry Studio的時候,我內心是忐忑的。因為之前試過太多模型,總是在關鍵時刻掉鏈子。 但M1真的給了我驚喜。我把它配置為主模型,搭配了聯網MCP、Arxiv論文MCP、代碼MCP、下載MCP等好幾個工具。 然后我做了個大膽的嘗試:丟給它一個超級復雜的任務——"搜索多智能體系統相關論文,下載第一篇PDF,然后讀取并總結要點"。 說完這句話,我就去刷了個短視頻,心想:"看看這次又會在哪里卡住。" 結果呢?當我回來的時候,M1不僅完成了任務,還給了我一個意外驚喜:它在Arxiv搜索失敗后,竟然自己想辦法,切換到聯網搜索找到了相關論文,然后下載、翻譯、總結,一氣呵成! 自主規劃MCP調用 那一刻我真的有點感動,就像看到一個聰明的助手不僅完成了任務,還超額完成了。這種感覺,用過的人都懂。 說到Claude Code,我的心情很復雜。 一方面它確實很強大,但另一方面門檻實在太高了: 前幾天我熬夜整理了一份claude-code終極平替指南,當時對于長上下文模型推薦的是Gemini方案。但說實話,網絡問題依然讓人頭疼。 Claude Code 平替指南:https://github.com/yzfly/claude-code-deepseek-quickstart 現在有了M1,我終于可以松一口氣了!不用翻墻,不用擔心封號,性能還不差,這種感覺真的很爽。 Claude Code 配置 我昨晚就把配置改了,跑了幾個項目測試,體驗還不錯。 如果你也想嘗試一下Claude Code,建議試試下面這個配置: 用Trae自帶模型總是遇到排隊,浪費時間: 配置M1后,編程場景下的長上下文處理能力大大提升: 我日常用DeepSeek和Qwen-Max,現在又多了一個優秀選擇。 關于"上下文能否取代RAG"這個話題,我和很多朋友爭論過。但這次用了M1之后,我更加堅信:當模型上下文足夠長時,很多復雜的RAG場景真的會變得極其簡單。 IBM的 RAG 架構示例,已經算不復雜的了 為什么這么說?我給你舉個真實的例子。 前兩周,我需要分析一篇50頁的技術論文。按照以前的做法,我得把PDF切成幾塊,然后讓AI分別處理,最后再人工整合。光是這個流程就要折騰1個多小時,而且效果還不一定好。 有了M1的百萬上下文,我直接把整個PDF的內容丟給它:"幫我總結這篇論文的核心觀點、技術創新點和潛在應用場景。"然后我就去干別的事情了,幾分鐘后回來發現它已經給了我一份詳細的分析報告。 那一刻我想:這不就是我一直期待的AI助手嗎? 于是我花了一個通宵,基于M1的長上下文能力做了這個MCP: fullscope-mcp-server GitHub鏈接:https://github.com/yzfly/fullscope-mcp-server 功能很簡單,但很實用: MCP功能特性 使用下面的配置就可以配置這個MCP Server,記得換成你自己的MiniMax API Key: Cherry Studio 配置MCP 把這個MCP配置到Cherry Studio以后,我測試了一個50多頁的PDF。 50頁PDF 從發送指令到得到完整總結,只用了不到5分鐘就完成了。以前這種任務,我得花上一個小時。 看到這份完整的PDF總結時,我內心真的很激動。這種感覺就像又找到了一個能解決我痛點需求的助手。 有個小細節要注意:因為處理比較耗時,記得把超時設置調到300秒。我開始設置太短,總是中途斷掉,后來才發現這個問題。 去年好像是剛哥問過我,最期待大模型哪方面突破,當時我回答的就是「真正的上下文」。 今年我們應該會很快步入AI全員百萬上下文時代! 今年年初Grok3發布后,我在微軟做分享時就提到一個觀點:當模型上下文越來越長,我們還需要現在這么復雜的RAG流程嗎? 當時很多人覺得我太樂觀,但現在M1的表現讓我更加確信這個判斷。 直接放到上下文中不就行了?為什么要繞那么多彎? 這就是我做這個MCP Server的初衷,像Manus提出的一樣:less structure, more intelligence 讓模型的真正能力賦能AI產品,而不是被復雜的工程架構束縛住手腳。 本文轉載自????????云中江樹????????,作者:云中江樹為什么百萬上下文讓我這么激動?
性能到底怎么樣?
成本控制更是絕了
如何體驗?
四大實用場景
01 在Cherry Studio中調用
02 Claude Code的長文本平替
{
"OPENAI_API_KEY": "sk-xxx",
"OPENAI_BASE_URL": "https://api.deepseek.com",
"OPENAI_MODEL": "deepseek-chat",
"Providers": [
{
"name": "deepseek",
"api_base_url": "https://api.deepseek.com",
"api_key": "sk-xxx",
"models": ["deepseek-reasoner", "deepseek-chat"]
},
{
"name": "MiniMax",
"api_base_url": "https://api.minimaxi.com/v1",
"api_key": "xxx",
"models": ["MiniMax-M1"]
}
],
"Router": {
"background": "deepseek,deepseek-chat",
"think": "deepseek,deepseek-reasoner",
"longContext": "MiniMax,MiniMax-M1"
}
}
03 告別Trae排隊煩惱
04 無需RAG的長文MCP Server
{
"mcpServers": {
"fullscope-mcp": {
"command": "uvx",
"args": ["fullscope-mcp-server"],
"env": {
"OPENAI_API_KEY": "xxx",
"OPENAI_BASE_URL": "https://api.minimaxi.com/v1",
"OPENAI_MODEL": "MiniMax-M1",
"MAX_INPUT_TOKENS": "900000",
"MAX_OUTPUT_TOKENS": "8000"
}
}
}
}
AI上下文的重要轉折點
