DeepSeek首發國產類o1模型!人人可以免費使用!
20日晚8點,DeepSeek在自己官方公眾號上放出了一個大殺器:
全新自研的DeepSeek-R1-Lite 預覽版正式上線。據介紹,DeepSeek R1 系列模型使用強化學習訓練,推理過程包含大量反思和驗證,思維鏈長度可達數萬字。
該系列模型在數學、代碼以及各種復雜邏輯推理任務上,取得了媲美 o1-preview 的推理效果,并為用戶展現了 o1 沒有公開的完整思考過程。
圖片
等不及看下文的朋友,大家可以自行登錄DeepSeek官網(chat.deepseek.com),前往體驗與國產版的o1模型的深度對話。
不過,這次的深度推理,DeepSeek選擇的只有數學競賽和編程方面的測評,雖然沒有其他領域的測評數據,但這兩項的難度也足以說明這個模型的厲害了!
在美國數學競賽(AMC)中難度等級最高的 AIME 以及全球頂級編程競賽(codeforces)等權威評測中,DeepSeek的表現大幅超越了 GPT-4o 等知名模型,前者L1獲得了91.6的成績,而o1僅有85.5分,Qwen2.5表現也不錯83.1。
值得注意的是,所有測評的最大推理長度是有限制的,是32k。
圖片
為什么說這一點值得注意,因為據介紹,DeepSeek-R1-Lite 的推理過程包含了大量的反思和驗證。模型在數學競賽上的得分與測試所允許思考的長度緊密正相關。
即,允許思考過程的token越長,所獲得推理結果得分越高。
圖片
小遺憾地是,DeepSeek-R1-Lite 目前仍處于迭代開發階段,僅支持網頁使用,暫不支持 API 調用。DeepSeek-R1-Lite 所使用的也是一個較小的基座模型,無法完全釋放長思維鏈的潛力。
不過DeepSeek表示模型還會持續進行迭代,正式版 DeepSeek-R1 模型將完全開源,而相關的技術報告也會公開,同時也會部署 API 服務。
小編實測了一道高中奧數題,DeepSeek-R1 全程只用了15s就給了正確的思考過程,不過可惜的是,輸在了最后一個合并同類項的數學錯誤上。
圖片
唉,不得不說,功虧一簣呀,大模型的數學能力的確有待提升,推理層還得加油!
本文轉載自??51CTO技術棧??
