編輯 | 云昭
出品 | 51CTO技術棧(微信號:blog51cto)
剛剛,Mistral AI 放大招了!沉寂許久后,這家公司推出了 Mistral Medium 3,這是一款全新級別的 AI 模型,聲稱能夠平衡SOTA性能和成本效益,同時在基準測試中勝過 Meta 的 Llama 4 Maverick 等競爭對手,成本卻降低了一個數量級,甚至低于DeepSeek。
各位不妨速覽一下亮點:
- SOTA(當前最強)性能,在編程、跨模態理解等專業場景表現領先
- 成本降低 8 倍
- 更簡化的部署方式,助力企業加速應用
1.性能與成本的完美平衡,成本低于DeepSeek
該公司在公告中表示,該模型專為企業部署而設計,在編碼、STEM 和多模態任務方面表現出色。
Mistral Medium 3 在保持前沿性能的同時,將成本降至原來的一個數量級。舉例來說,在各類基準測試中,模型整體表現達到或超過 Claude Sonnet 3.7 的 90%,而成本卻大幅降低(每百萬 tokens 計,輸入 $0.4,輸出 $2)。
在性能上,Mistral Medium 3 同樣超越了領先的開源模型 Llama 4 Maverick,以及企業級模型 Cohere Command A。在價格方面,無論 API 還是自部署,Mistral Medium 3 都優于成本控制型模型 DeepSeek v3。
圖片來源:Mistral
此前,其開源模型Mistral Small 3.1剛剛發布。新模型以 Mistral Small 3 為基礎,改進了文本性能、多模態理解能力,并將上下文窗口擴展至高達 128k 個 token。Mistral 聲稱,該模型的性能優于 Gemma 3 和 GPT-4o mini 等同類模型,同時推理速度高達每秒 150 個 token。
2.專為企業部署而設計
此外,Mistral Medium 3 還可靈活部署于任意云環境,或企業自建、配備 4 塊 GPU 及以上的私有服務器,并支持持續預訓練和企業系統集成。該公司報告稱,金融、能源和醫療保健領域的早期采用者已將其用于個性化客戶服務和復雜數據分析。
據報道,盡管該模型規模適中,但在 API 和自托管格式方面均勝過幾家規模更大的競爭對手。它只需四個 GPU 即可在系統上運行,這使得擁有不同基礎設施能力的組織更容易部署。
3.編碼任務優秀,超過Llama4
在針對真實場景的第三方人工評估中,Mistral Medium 3 在編碼任務中表現尤為出色,超越了一些明顯更大的模型。
圖片來源:Mistral
該公司聲稱,在基準測試中,Mistral Medium 3 的表現優于 Cohere Command A 和Llama 4 Maverick,同時在 API 和自行部署場景中的定價上也優于 DeepSeek v3。
該模型目前可在 Mistral 自己的平臺和 Amazon SageMaker 上使用,并且即將在 Azure AI、Google Cloud、IBM WatsonX 和 NVIDIA NIM 上提供支持。
值得注意的是,Mistral 證實其正在開發更大的開放模型。