第一線協同華為構建AI算網 驅動大模型私域部署新引擎
近日,『華為中國合作伙伴大會2025』在深圳開幕,第一線DYXnet作為重要合作伙伴受邀出席本屆峰會,第一線網絡研發總經理張先國代表公司發表『新一代超互聯城市算力網絡底座實踐和思考』,立足于AI大模型平權的大時代,重點講解了第一線在算力網絡方面的創新成果『AI原生超互聯總線』。
網絡研發總經理張先國先生發表演講
大模型私域部署興起
從閉源軍備競賽走向開源全面繁榮
張先國演講指出,以DeepSeek R1開源為界,大模型發展步入 “開源主導的智能普惠時代”。此前大模型發展以閉源為核心,OpenAI 構建 “大型機時代” 生態,模型能力集中,基礎設施呈 “封閉模式”,依賴大平臺資源,頭部機構主導競爭,開源模型性能遠落后。如今到新階段,DeepSeek等開源模型生態爆發,性能逼近甚至超越閉源模型,大幅降低模型部署和使用門檻,推動技術架構與創新向私域遷移。基礎設施轉向 “開放模式”,企業能依托私域數據+開源模型+超互聯安全網絡+共享算力架構,構建自主可控的 AI 服務體系,重構大模型應用的技術生態與產業邏輯 。
消除大模型部署難題
瞄準企業資源困境以創新協同破局
然而,技術迭代雖為大模型私域部署提供性能保障,但企業尤其中小企業仍面臨大模型對算力資源依賴的挑戰,在保障數據安全下利用共享算力降本、減少技術壁壘,是構建自主可控 AI 體系的關鍵矛盾。第一線聯合世紀互聯等正生態協同破局,打通算力、數據、模型的流通鏈路,構建基礎底座。
第一線通過動態擴容和整合技術,將分散的計算資源逐步轉化為統一管理的平臺化資源池。這一過程從單節點擴展至區域級網絡,結合城市級基礎設施與廣域網絡基礎設施,形成多區域、多節點的資源融合協同能力。核心目標是打破物理資源的空間界限,依托超互聯的架構,在保障私域安全空間的基礎上,實現資源的彈性調度與高效利用,為客戶提供從分散到集中的資源整合服務。這一突破不僅推動了分布式算力資源的集約化利用,更通過生態協作重構了大模型部署的技術范式。
張先國表示,這一平臺的核心在于消除客戶對資源物理位置的感知。通過統一管理體系,客戶無需關心資源分布,可直接按需調用算力,平臺自動完成負載均衡、故障切換及集群部署,確保客戶業務在毫秒級延遲下穩定運行,且資源擴展與遷移對客戶完全透明。
承載智算資源全域協同
構筑AI 原生超互聯總線架構
這一進程中,第一線正在加速構建的AI原生超互聯總線架構,成為拉通算力+模型需求側到供給側,以及對樞紐型(Hub)、輻射型(Spoke)、邊緣型(Edge)等不同形態的智算中心進行融合管理的關鍵脈絡。
AI原生超互聯總線憑借動態切片、加密技術以及安全網關產品的集成創新,可達成城域范圍內各類算力主體(涵蓋世紀互聯AIDC、公有云AI算力、邊緣算力等,以及園區、樓宇、企業乃至個人),均通過就近節點實現高速、安全接入總線,進而創建動態私有網絡,無縫連接算力資源、私域數據及模型,構建完全契合自身需求的私有計算空間,真正實現網絡與計算資源的按需定制與高效利用。
張先國具體講解道,在AI原生超互聯總線具體構建過程中,第一線結合母公司優勢,以及生態伙伴的技術能力,對網絡層、管理層等多方面進行了升級。
接入側,第一線通過實施園區/樓宇網絡改造重構,實現家庭/企業基于全光直連/F5G技術,移動終端基于5G網絡切片技術,進行多終端差異化接入。同時,核心網絡層,第一線合作運營商,打通了園區到算力、園區到5G UPF的鏈路,幫助企業實現高速、安全的私域組網。管理層面,第一線實現了園區網絡控制面的上移,結合區塊鏈等技術,支持企業進行整體私域網絡的管理,簡化日常維護和管理的復雜度。
底層網絡采用二層VXLAN、FlexE、SRv6等技術,基于用戶維度實現隔離,構建“一張網/不同用戶專有空間”架構,通過疊加數字身份與密碼學邏輯,為不同企業/業務提供安全隱私端到端能力。
值得一提的是,AI原生超互聯總線架構還采用了華為星河AI廣域網解決方案,基于加密流精準識別和智能流調度技術,實現增值體驗保障。在算力網數據快遞和存算拉遠場景中,該方案能夠根據流特征精準識別智算業務,并根據網絡資源實現千萬流的均衡調度,提升網絡吞吐率,保證智算業務的傳輸可靠性,實現海量數據高效入算,構筑端到端彈性無損算力網。
從數據中心走向廣域
基于遠程RDMA創新應用
網絡研發總經理張先國先生發表演講
張先國稱,第一線在升級園區網絡時,正把數據中心結構擴展至城域及全球。實現這一目標,需在AI原生超互聯總線架構中,創新應用遠程RDMA等關鍵協議。當下,第一線正探索借遠程RDMA協議,推動企業大模型數據與多區域異構算力互聯協同,并通過多場景技術實證,揭示其在關鍵 AI 業務流程中的性能表現。
大模型文件傳輸場景下
基于遠程RDMA技術的AI原生超互聯總線,在2000公里以上的遠程傳輸中,即使在小帶寬切片下傳輸速度也可達TCP的20倍以上,較多線程多路TCP也有2倍以上速率優勢,且CPU利用率更優。而物理帶寬越大遠程RDMA協議優勢越突出。200Gbps網絡實測中,即使在少量丟包的場景下,遠程RDMA技術實現160Gbps以上速率,而受內核與系統限制的TCP多流模式僅達30Gbps。
跨節點模型微調訓練場景
10km間距的兩節點基于400Gbps雙鏈路協同訓練大模型,與同節點訓練相比,總體差距控制在2%以內。
模型分發場景
大模型文件,在10Gbps非高速網絡環境下,仍實現5~8倍的速度提升,凸顯AI原生超互聯總線在廣域傳輸、模型訓練及分發場景的高效性能。
企業私域AI落地方案
【某教育客戶案例】
教育企業客戶數據量高達300TB+,包含多種形式。第一線打通其原有存儲與第一線邊緣節點,從而形成安全網絡互聯,并調度 64 臺算力資源為其進行模型微調訓練,訓練結束后進行多節點部署與模型分發,連接到線下體驗節點等,實現端到端多點間至少100Gbps的高速“AI內網”,實現數據的拉遠訓練和模型的快速分布式部署。
這一過程可根據客戶不同階段的需求,動態調整資源。從訓練期間的64臺訓練資源,可以在幾分鐘內快速完成資源切換和部署,調整為分布在不同區域的推理算力資源,并依托“AI內網”對接其內部知識庫,構建分布式私域計算空間,實現網絡與算力的精準整合創新。
隨著AI原生超互聯總線的規模化落地,企業級AI部署正從單一算力依賴轉向多維資源協同。該架構通過高速安全總線實現網絡資源按需分配,依托動態切片技術、彈性算力調度算法、安全加密技術等構建分布式計算網格,促進AI在私域場景下的快速落地和創新。
未來,AI原生超互聯總線的進一步演進將加速多域協同計算的普及,最終推動智能計算從云中心向城市級算力網絡的范式躍遷。