紅帽:以開源之力破局,做 AI 時代的“解耦者”
原創“AI 的未來是開放的,并且是由紅帽驅動的!”紅帽全球副總裁兼大中華區總裁曹衡康在 2025 紅帽媒體 Open 講活動上如是說。
面對大模型混戰、算力成本高、安全隱憂難解等行業痛點,紅帽以一套貫穿“算力-模型-數據-應用”的全棧開源方案,試圖為企業打造一條可掌控、低成本、高兼容的 AI 落地路徑。其核心邏輯清晰而堅定,以開源的方法論解耦技術枷鎖,讓企業自由駕馭任意模型、任意加速器、任意云。
紅帽 AI 的“Any”哲學,重構企業 AI 自由版圖
我們經常看到,紅帽在發布產品時,會多次出現“Any(任意)”這個詞。any cloud,any platform,any hardware,any model,any server,any cloud……而這正是紅帽打造產品的理念。
紅帽大中華區方案架構部總經理王慧慧介紹道,紅帽是一家開源公司,目標是通過中間層來解耦硬件和應用。通過打造中間層產品,讓客戶不用擔心底層硬件設備,業務運行在云端還是本地,使用大模型的品牌,以及開發應用的語言,讓企業徹底擺脫技術選型的難題,真正實現“任意模型、任意加速器、任意云”的自由部署。
這一理念在 AI 領域涉及四個層面,從推理加速到數據工程,從全棧平臺到智能體生態,紅帽正以開源為基礎,重塑企業級 AI 的生產范式。
首先是推理層面,紅帽推出高效大模型推理解決方案。基于 vLLM 社區打造的企業級推理服務器,集成量化壓縮工具鏈,對 Qwen、DeepSeek 等主流開源模型實現性能躍升,并且首創llm-d引擎,支持超大規模推理。
其次是智能數據工程平臺。通過 InstructLab 實現多語言數據對齊,Doding 引擎處理非結構化數據,OpenShift AI 集成 Kubeflow 分布式訓練框架,讓私域數據真正賦能模型進化。
第三是全棧 AI 基礎平臺。全棧 AI 基礎平臺覆蓋數據合成、模型優化和生產推理全流程。OpenShift AI 標準化模型庫和特征倉庫,以及MLOps 觀測體系(監控/告警/溯源)的引入,讓企業從“試驗室原型”平滑過渡至“生產級負載”。
第四是智能體開發生態。以 Llama Stack 統一 API 層整合推理/RAG/工具調用能力,通過模型上下文協議(MCP)實現智能體互聯。企業無需綁定特定模型或平臺,即可構建自主協作的 AI 智能體。
雙引擎破局 AI 推理“最后一公里”
當業界困于模型訓練的爭論時,紅帽已經敏銳地捕捉到 AI 商業化的站在拐點的契機。王慧慧指出,過去產業界聚焦在模型訓練階段,探討模型選擇與部署方式,這本質上是技術準備期,因為 AI 并沒有為企業帶來實際價值,或者是“真金白銀”的收入。
據 Gartner 報告數據顯示,到 2028 年,80%以上的數據中心工作負載加速器將專門部署用于推理,而不是訓練用途。可見,未來更多的計算資源都是集中在推理階段,這也是紅帽大力投入到推理方面的原因。
在推理層面,業界普遍遇到兩個問題,如何使用最小的硬件設備、最小的成本,完成最高性能推理。二是是否可以將推理的工作量分散到不同服務器上進行,而不是集中在單一一臺服務器上。
為此,紅帽以兩大技術利器破局,vLLM 推理服務器和 llm-d 分布式推理引擎。
vLLM 推理服務器向上無縫集成 Qwen、DeepSeek、Llama、Mistral 等主流開源模型,通過獨創的量化壓縮工具鏈實現性能指標提升,向下兼容 NVIDIA、AMD、Google TPU、AWS Neuron 等加速器。值得注意的是,vLLM 推理服務器的架構更加靈活,既可以運行在單臺服務器,又可以橫向擴展至多節點集群,并且跨越物理機、虛擬機、私有云及邊緣設備實現一致體驗。
王慧慧表示,紅帽的產品布局始終貫穿著“解耦”哲學。“從 Linux 到容器,從 vLLM 到 llm-d,我們幫助用戶規避復雜的硬件環境、開發技術和過載的模型選擇。”
這種理念延伸至交付模式:企業可獨立部署 vLLM 推理服務器,或者選擇 RHEL AI(操作系統+推理服務捆綁包),也可以嵌入 OpenShift AI 平臺,三種形態自由適配不同場景,既能獨立運行發揮專長,亦可組合實現“1+1>2”的協同效應。
llm-d 分布式推理引擎,是基于 Kubernetes 容器架構與 vLLM 分布式邏輯,它將推理任務智能拆解到多臺服務器協同處理,突破單機算力天花板,實現大規模推理。此外,企業可按需構建 llm-d 分布式推理架構,并支持私域劃分,可按照部門劃分專屬資源池,確保敏感數據不越界。這一創新吸引 AMD、Cisco、IBM、Hugging Face 等巨頭加入聯盟,共同推動分布式推理標準化。
在紅帽的藍圖中,推理不再是孤立的技術節點,而是連接模型價值與商業回報的樞紐。當“任意模型、任意加速器、任意云”的兼容性成為現實,企業終于能擺脫技術枷鎖,專注讓 AI 真正服務于業務增長的核心命題。
以開放協議重構 AI 協作范式
在推理技術突破之后,紅帽正沿著“任意模型、任意加速器、任意云”的理念延伸至智能體領域,以開放協議重構企業 AI 協作的底層規則。
2025 年也被稱為是 AI 智能體元年。王慧慧坦言,智能體還是剛剛興起,還不能完全斷定智能體的未來發展方向。在紅帽看來,Llama Stack 工具鏈與模型上下文協議(MCP)會是未來熱門走向,也是目前較為領先的技術堆棧。
因此,紅帽 AI 平臺引入了 Llama Stack 工具鏈和 MCP 協議,使開發者擺脫模型與平臺的綁定,通過紅帽 AI 平臺打造屬于自己的智能體,讓開發人員無需關心模型選擇和數據平臺。
如今,各家模型廠商都在打造自己的智能體生態,那么紅帽的智能體開發生態又有哪些優勢呢?紅帽大中華區首席架構師張家駒介紹了三點優勢。
首先,紅帽通過一套開源技術和堆棧貫穿虛擬化應用、云原生架構和智能體開發,徹底打破傳統 IT 系統與智能體之間的割裂。其次,紅帽通過集成不同協議,支持開發者自由選擇模型,避免被技術綁架,當前已經集成 MCP 協議,A2A 協議也在快速推進中。第三,紅帽也在和低代碼開發平臺進行合作,企業可以在紅帽 AI 平臺上使用低代碼開發工具開發自己的企業級應用。
通過協議開放、技術解耦與生態協同,紅帽為企業 AI 應用開辟了從工具到平臺、從單點應用到生態網絡的進化路徑。
結語
“當下企業若想開展企業級 AI 建設,找紅帽就對了。”曹衡康表示,紅帽以全棧解決方案、成本卓效、安全可控和開放生態四大優勢,成為企業級 AI 建設的優選伙伴。
當業界仍在爭論大模型與小模型、公有云與私有部署時,紅帽已用開源之手推開一扇新門,沒有非此即彼的站隊,只有基于開放標準的自由組合。在這場 AI 重塑生產力的長征中,紅帽正以解耦為劍,以兼容為盾,成為企業穿越技術迷霧的引路者。