DeepSeek推出后,移動端AI風向要變
DeepSeek R1 正在對整個科技領域產生巨大影響,顛覆人們有關 AI 的認知。在移動端,革新正在快速發生。
2 月 20 日,高通發布了最新 AI 白皮書《AI 變革正在推動終端側推理創新》,介紹了端側高質量小語言模型和多模態推理模型的前景。
在 AI 逐步大規模落地的過程中,我們已經逐漸意識到端側的大模型推理可以為人們帶來更高的可靠性,同時也可以提升數據安全性。而隨著技術的快速發展,其還有更多的優勢正在顯現。
高通指出,四大趨勢正在推動端側 AI 變革:
- 當前先進的 AI 小模型已具有卓越性能。模型蒸餾和新型 AI 網絡架構等新技術能夠在不影響質量的情況下簡化開發流程,讓新模型的表現快速提升,接近云端大模型;
- 模型參數規模正在快速縮小。先進的量化和剪枝技術使開發者能夠在不對準確性產生實質影響的情況下,縮小模型參數規模;
- 開發者能夠在邊緣側打造更豐富的應用。高質量 AI 模型快速激增,這意味著文本摘要、編程助手和實時翻譯等特性在智能手機等終端上的普及,讓 AI 能夠支持跨邊緣側規?;渴鸬纳逃脩?;
- AI 正在成為新的 UI。個性化多模態 AI 智能體將簡化交互,高效地跨越各種應用完成任務。
在前沿大模型技術不斷取得突破的同時,科技行業也已經開始將精力投入到邊緣側的高效部署當中去。在訓練成本下降、快速推理部署以及針對邊緣環境的創新推動下,業內已經催生了大量更智能、更小型、更高效的模型。
這些技術進步正在逐漸傳導到芯片廠商、開發者和消費者身邊,形成新的趨勢。
模型向小已成為發展必然
縱觀最近幾年的大語言模型發展,我們可以清楚地看到一些顯著的趨勢,包括從拼參數規模到拼應用、從單一模態到多模態、輕量化模型的崛起以及向終端側部署的傾斜,等等。
尤其是最近 DeepSeek V3、R1 的推出,更體現了 AI 行業的這些發展趨勢,由此帶來的訓練成本下降、快速推理部署和針對邊緣環境的創新正在推動高質量小模型的激增。深究其原因,如今向小模型的轉變是幾個方面綜合作用的結果。
一是模型網絡架構不斷創新,從最開始主流的 Transformer 到后來的混合專家模型(MoE)和狀態空間模型(SSM)并存,大模型開發過程中的計算開銷和功耗不斷降低。因此,越來越多的模型開始采用新架構。
二是知識蒸餾技術的使用,這成為了開發高效「基礎和特定任務」小模型的關鍵。通過將復雜的教師模型的知識遷移到更小的學生模型中,一方面顯著減少了模型的參數量和計算量,簡化了訓練過程,占用的存儲空間也更少,適合部署在資源受限的設備上;另一方面,學生模型同樣可以獲得豐富的知識,并保證模型準確性和泛化能力。
Meta Llama 700 億參數模型和 DeepSeek 對應蒸餾模型的 LiveBench AI 基準測試平均結果對比。來源:LiveBench.ai
三是量化、壓縮和剪枝等大模型優化和部署技術持續改進,進一步促進了模型規模向小。這些技術同樣可以顯著降低模型的計算和存儲需求,同時保持較高的性能。
有了以上底層架構和技術層面的創新進步,小模型的能力正在趨近、甚至可以超越體量大得多的前沿大模型。比如在 GPQA 基準測試中,基于通義千問模型和 Llama 模型的 DeepSeek 蒸餾版本取得了與 GPT-4o、Claude 3.5 Sonnet 和 GPT-o1 mini 等類似或更高的表現。
來源:DeepSeek,2025 年 1 月。
從整個行業的角度看,技術的進步推動了高質量生成式 AI 模型的激增。根據 Epoch AI 統計,在 2024 年發布的 AI 模型中,千億規模以下的模型超過了 75%,成為主流。
圖源:Epoch AI,2025 年 1 月。
因此,在成本與算力需求、性能權衡等多方面的驅使下,小模型正取代大模型成為眾多企業和開發者的首選。當前,包括 DeepSeek R1、Meta Llama 等在內的主流模型都推出了小模型版本,并在主流基準測試和領域特定任務測試中表現出色。
特別地,小模型表現出的更快推理速度、更少內存占用和更低功耗,使得這類模型成為手機、PC 等終端側部署的首選。
在 AI 領域里,終端側模型參數通常在 10 億到 100 億之間,而最近發布的一些新模型參數規模已經下降到 20 億以下。隨著模型參數規模的不斷下降、小模型質量的提升,參數已不再是衡量模型質量的重要指標。
相對的,現在的旗艦智能手機運行內存配置在 12GB 以上,理論上已經足夠支撐很多模型的運行。同時,針對主流配置手機的小模型也在不斷出現。
而隨著高質量小模型加快在手機、PC 等終端側大規模部署的步伐,又進一步推動了 AI 推理功能以及多模態生成式 AI 應用(比如文檔摘要、AI 圖像生成、實時語言翻譯等)在終端側的廣泛落地,為 AI 技術向更廣泛端側普通用戶的普及提供了重要支持。
在推動端側 AI 落地的過程中,高通一直在為行業鋪路。
AI 推理時代,高通將引領行業變革
高通憑借高能效的芯片設計、超前部署的 AI 軟件棧及面向邊緣應用的全面開發支持等技術專長,正在引領這一變革并從中受益。
高通技術公司高級副總裁兼技術規劃和邊緣解決方案業務總經理馬德嘉(Durga Malladi)表示,如今的小模型性能已經超越了一年前推出的云端大模型,「我們關注的焦點已不再是模型本身,而是演進到終端上的應用發展。隨著終端側可以運行越來越多高質量的 AI 模型,AI 應用開始涌現。AI 正在重新定義所有終端的用戶界面,這也意味著 AI 正在成為終端側新的 UI?!?/span>
高通認為,在 AI 定義的新時代,從包括語音、文本、圖像的多種傳感器數據,將會首先經由 AI 智能體進行處理 —— 而不是直接應用于某個 App。智能體獲取信息后會將任務分配給不同的后臺應用,這個過程對于用戶來說是無感的。
在常規的手機系統里,開發者可用的終端側模型數量正在激增,AI 智能體需要從終端側能夠獲取的大量 AI 模型中選擇所需的模型完成任務。這個過程將會大幅降低交互的復雜性,實現高度個性化的多模態能力,并可以跨越各種應用完成任務。
對于終端用戶來講,AI 智能體就是唯一在前端與他們交互的 UI,而所有實際應用的處理都是在后臺完成的。
利用高質量小模型的能力,智能手機這樣的終端可以實現交互的創新。高通在 AI 從訓練向大規模推理轉型,以及從云端到端的擴展方面,具有一定戰略優勢:
- 高性能、高能效芯片設計:高通提供了集成定制 CPU、NPU、GPU 和低功耗子系統的行業領先系統級芯片,能夠在終端側提供高性能、高能效 AI 推理,在保持電池續航和整體能效表現的同時處理復雜 AI 任務;
- 覆蓋所有關鍵邊緣細分領域的可擴展性:高通的可擴展硬件、軟件解決方案已賦能數十億智能手機、汽車、XR 頭顯和眼鏡、PC 以及工業物聯網等終端,為廣泛的變革性 AI 體驗提供了基礎;
- 活躍的生態系統:通過高通 AI 軟件棧、高通 AI Hub 和戰略性的開發者協作,高通面向跨不同邊緣終端領域的模型部署提供工具、框架和 SDK,賦能開發者在邊緣側加速采用 AI 智能體和應用。
高通既預判了終端側模型的爆發,同時也推動了邊緣 AI 推理在跨終端設備上的落地。
高通公司總裁兼 CEO 安蒙(Cristiano Amon)在近期的一季度財報電話會議中分享了他對當前 AI 行業趨勢的看法:「近期的 DeepSeek R1 及其他類似模型展示了 AI 模型的發展速度越來越快,它們變得更小、更強大、更高效,并且可以直接在終端側運行。事實上,DeepSeek R1 的蒸餾模型在發布僅幾天內就能在搭載驍龍平臺的智能手機和 PC 上運行。」
隨著進入 AI 推理時代,模型訓練仍將在云端進行,但推理將越來越多地在終端側運行,使 AI 變得更便捷、可定制且高效。這將促進更多有針對性的專用模型和應用的開發及采用,并因此推動各類終端對計算平臺的需求。
DeepSeek R1 的爆火恰如其分地驗證了此前高通對終端側 AI 的判斷。高通憑借其先進的連接、計算和邊緣 AI 技術以及獨特的產品組合,不僅在終端側 AI 領域保持了高度的差異化優勢,還為其實現混合 AI 愿景提供了強有力的支持。
未來,端側 AI 將會在各個行業中發揮越來越重要的作用。