一文剖析基于 MCP 的 AI 應用技術架構全景視圖:從基礎實施層、云原生層、模型層、應用技術層、應用架構層 原創
1、基于 MCP 的 AI 應用技術架構全景圖
MCP 已經成為業界的標準,基于 MCP 的 AI 應用技術已經在具體的業務場景落地實踐,本文通過梳理基于 MCP 的 AI 應用技術架構的全景視圖,讓你全面了解 AI 應用技術的各個層次,從基礎實施層、云原生層、模型層、應用技術層、應用架構層、到應用層,如下圖所示,揭示基于 MCP 的 AI 應用技術如何在不同的層面上協同工作,推動產業應用的落地。
一、 基礎設施層
AI 大模型技術發展離不開堅實的基礎設施支持,涵蓋了 GPU、CPU、RAM、HDD、Network 等關鍵硬件設施。這些硬件設備為 AI 大模型的訓練與推理提供了關鍵的運算資源和存儲能力。
1.1、 GPU(圖形處理單元)的作用
GPU 針對并行計算進行了優化,非常適合深度學習以及執行復雜計算任務。與傳統 CPU 相比,GPU 在處理大規模數據時具有顯著優勢,特別是在圖像處理和神經網絡訓練領域。
1.2、 CPU(中央處理單元)的重要性
CPU 作為通用處理器,承擔了大部分的計算任務。雖然在并行處理方面不及GPU,但 CPU 在執行邏輯運算和控制任務時表現高效,構成了計算機系統的關鍵部分。
1.3、 RAM(隨機存取存儲器)的功能
RAM 提供了計算過程中快速讀寫數據的臨時存儲空間。其主要職責是存放正在運行的程序和數據,使得 CPU 能夠迅速訪問這些信息,從而提升整體的計算效率。
1.4、 HDD(硬盤驅動器)的角色
HDD 承擔著存儲大量訓練數據和模型文件的任務。盡管其訪問速度不及RAM,但 HDD憑 借較大的存儲容量,成為長期保存數據的主要設備。
1.5、 Network(網絡)的角色
Network 為 AI 大模型的預訓練、微調、推理、應用訪問提供分布式的通信基礎設施。
二、 云原生層
2.1、 彈性伸縮層
基于 Docker 容器和 K8S 的彈性云原生架構,為 AI 大模型的預訓練、微調、推理以及 AI 應用的部署,提供了高擴展、高可用的云環境,從而根據訪問量的情況動態伸縮。
三、模型層
這一層主要由大語言模型、視覺-語言模型、小模型等構成。
3.1、 大語言模型(LLMs)
大語言模型的運用大語言模型,比如:DeepSeek R1,具備處理及生成自然語言文本的能力。這些模型通過海量訓練數據學習語言規律,能夠執行包括文本創作、翻譯、摘要在內的多種自然語言處理任務。
3.2、 視覺-語言模型的融合
視覺-語言模型結合了視覺與語言信息,能夠理解和創造跨模態內容。這種模型不僅能夠處理文字信息,還能識別和生成圖像、視頻等視覺內容,廣泛應用于圖像標注、視頻解析等領域。
3.3、 智能文檔理解的實現
智能文檔理解技術通過解析文本和非結構化數據,實現對文檔內容的深入理解。它能夠自動抓取關鍵信息,執行文檔的分類和提煉工作,從而為文檔管理及信息檢索提供智能化支持。
3.4、 多模態檢測與分類的技術
多模態檢測與分類技術整合了多種數據類型,以實現更精確的分類和檢測。通過融合文本、圖像、音頻等多種模態的信息,該技術提升了模型的精確度和穩健性,并在安全監控、醫療診斷等多個領域得到了廣泛應用。
四、應用技術層
4.1、 MCP 技術
MCP(Model Context Protocol)是由 Anthropic 公司提出的一種協議,旨在解決不同大語言模型(LLM)與不同外部工具集成的標準化問題。通過MCP,開發者能夠以一種統一的方式將各種數據源和工具連接到 AI 大模型,從而提升大模型的實用性和靈活性。
目前,MCP 生態已經得到了廣泛的支持,包括 Anthropic 的 Claude 系列、OpenAI 的 GPT 系列、Meta 的 Llama 系列、DeepSeek、阿里的通義系列以及 Anysphere 的 Cursor 等主流模型均已接入 MCP 生態。
MCP 的架構設計
MCP 采用了客戶端-服務器架構,主要包括以下幾個核心組件:
1、MCP 主機(Hosts)
角色:這是需要訪問數據的程序,例如Claude Desktop、各種IDE或AI工具。
功能:它們是MCP生態系統的入口點,負責向用戶提供AI功能,并作為用戶與AI模型之間的橋梁。
2、MCP 客戶端(Clients)
角色:這些是協議客戶端,負責維持與 MCP 服務器的1:1連接。
功能:它們處理通信細節,確保主機和服務器之間的數據傳輸順暢,從而實現高效的數據交互。
3、MCP 服務器(Servers)
角色:這些是輕量級程序,每個服務器都通過標準化的 Model Context Protocol 暴露特定功能。
功能:服務器是 MCP 的核心,它們連接 AI 大模型與實際數據源,使模型能夠訪問和操作數據。
4、數據源
本地數據源:包括您計算機上的文件、數據庫和服務,MCP 服務器可以安全地訪問這些資源。
遠程服務:通過互聯網可用的外部系統(比如:通過 API),MCP 服務器可以連接這些系統,從而擴展模型的能力。
4.2、 Agent(智能體)技術
Agent 智能體技術就是利用大模型的推理能力對任務進行規劃拆解,并使用外部的工具完成一件復雜的任務。
4.3、 RAG(檢索增強生成)技術
RAG 技術融合了檢索與生成兩種方法,旨在提升信息生成的精準度。它利用檢索到的相關信息來增強生成模型的效能,確保所生成內容的準確性與相關性。
4.4、 大模型微調(Fine-tuning)
大模型微調技術通過對模型進行細致調整,使其更好地適應特定任務需求。在特定任務的數據集上進行微調后,模型在相關任務上的性能可以得到顯著提升,實現更精準和高效的處理。
4.5、 提示詞工程(Prompt Engineering)
提示詞工程專注于設計高效的提示語,以優化模型的輸出結果。通過精心設計的提示詞,可以引導模型生成更加符合預期的內容,從而提升生成文本的質量。
4.6、 思維鏈(Chain-of-Thought)技術
思維鏈技術模擬人類的思考過程,以增強模型的決策和推理能力。通過逐步推理和決策,該技術使得模型能夠更有效地處理復雜問題,并做出更加合理的判斷。
4.7、 數據工程技術
在應用技術層,還涵蓋了數據抓取、清洗、構建向量庫、實施訪問控制等數據處理的全流程,這些環節確保了數據的質量和安全。這些基礎步驟對于模型的訓練和推理至關重要,它們有助于增強模型的性能和信賴度。
五、應用架構層
5.1、 工程技術架構
通過工程技術架構的設計解決 AI 應用高可用、高性能、高可靠。
5.2、 業務架構
針對業務場景選擇合適的業務架構類型(RAG 架構、AI Agent 架構等選型)。
5.3、 云原生架構
解決 AI 應用彈性伸縮。
六、應用層
6.1、 增量應用
AI 應用的增量應用主要分為 RAG 類應用、Agent 類應用。
6.2、 存量應用
AI 應用的存量應用主要分為 OLTAP 類應用、OLAP 類應用。
本文轉載自公眾號玄姐聊AGI 作者:玄姐
