Akamai推出Akamai Cloud Inference 引領邊緣智能全面升級??
全球領先的云服務提供商Akamai Technologies(以下簡稱為Akamai)宣布推出戰略級解決方案Akamai Cloud Inference。這款基于其全球分布式云平臺打造的AI推理解決方案,以突破性的性能指標引發行業關注——與傳統超大規模云架構相比,其吞吐量提升3倍、延遲降低60%,成本更是銳減86%。
邊緣計算重構AI推理范式在生成式AI應用爆發的背景下,企業逐漸意識到大型語言模型(LLM)訓練與推理環節的架構差異。彭博社預測到2032年AI推理市場規模將達1.3萬億美元,其他多份近期報告也印證了這一判斷。這一市場轉變預示著2025年將成為分布式AI推理加速發展的元年。"訓練如同繪制地圖,需要集中式超算中心;而推理更像是實時導航,必須在靠近用戶的邊緣發生。"Akamai云技術部門首席運營官兼總經理Adam Karon用精妙比喻揭示了行業痛點。2025年大約有75%的數據將產生于傳統云區域之外(Gartner數據),傳統云架構在響應速度、數據傳輸成本等方面已稍顯疲態。
面對如此的市場環境,Akamai推出Akamai Cloud Inference的解決方案,依托其覆蓋130個國家、4200多個節點的分布式網絡,構建了獨特的"云-邊協同"架構。通過與NVIDIA、VAST Data等生態伙伴的深度整合,該解決方案提供從GPU加速計算、向量數據庫實時檢索到WebAssembly邊緣執行的完整技術棧。
技術底座的四維突破
- 異構算力集群:該解決方案創新性地整合了CPU、GPU與量身定制的ASIC VPU,針對不同推理場景動態調配資源。同時,Akamai 還與 NVIDIA 的 NVIDIA AI Enterprise 生態系統進行了整合,利用 Triton、TAO Toolkit、TensorRT 和 NVFlare 來優化 NVIDIA GPU 上 AI 推理的性能。
- 智能數據治理:Akamai通過整合VAST Data實時數據訪問、可擴展對象存儲及Aiven/Milvus向量數據庫技術,構建了支持檢索增強生成(RAG)的智能數據架構,實現微調模型的安全存儲與全球范圍的低延遲AI推理。
- 容器化敏捷部署:Akamai通過Linode Kubernetes Engine企業版與最近發布的 Akamai App 平臺,集成KServe、Kubeflow等開源工具構建容器化AI推理平臺,實現PB級性能的自動擴展、混合多云部署及成本優化。
- 邊緣Wasm運行時:Akamai與Fermyon等 Wasm 提供商合作,集成WebAssembly技術,使開發者能夠借助無服務器架構直接在邊緣端執行輕量化LLM推理,為延遲敏感型應用提供支持。
行業落地開辟新藍海
從車載語音助手到AI驅動的農田管理,從消費品圖像優化到虛擬試衣間,Akamai Cloud Inference通過分布式云和邊緣架構賦能跨行業創新。這些場景化應用不僅解決了傳統集中式云在實時決策和個性化體驗上的瓶頸,更通過邊緣側低延遲推理技術,為農業、零售、制造業等垂直領域智能升級提供了更多的可能性,將AI從實驗室推向了產業變革的最前線。
Akamai此次技術突圍,不僅重新定義了云服務商的競爭維度,更預示著AI基礎設施從"算力軍備競賽"向"場景效能革命"的戰略轉向。當行業巨頭仍在追逐千億參數大模型時,Akamai已悄然在離數據源頭最近處筑起新的護城河。