成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

MCP 架構設計深度剖析 原創

發布于 2025-4-16 07:10
瀏覽
0收藏

在本文中,我將從使用者的角度出發,分享關于 MCP(Model Context Protocol,模型上下文協議)的實用內容,本文旨在回答以下5個核心問題:


MCP 架構設計深度剖析-AI.x社區

  • 什么是 MCP?
  • 為什么需要 MCP?
  • 作為用戶,我們如何使用/開發 MCP?
  • MCP 架構設計剖析
  • MCP 運作機制剖析

1、什么是 MCP?

MCP(Model Context Protocol,模型上下文協議)的起源可以追溯到2024年11月25日,Anthropic在其發布的文章《Introducing the Model Context Protocol》中首次提出了這一概念。

MCP 定義了應用程序和 AI 大模型之間交換上下文信息的方式,為開發者提供了一種一致的方法,將各種數據源、工具和功能連接到 AI 大模型。這就好比 USB-C 接口,讓不同設備能夠通過相同的接口連接,MCP 旨在成為 AI 領域的通用標準,簡化和統一 AI 應用程序的開發與集成。

為了更直觀地理解 MCP,以下是一些精心制作的 MCP 架構,它們能夠幫助我們更好地把握 MCP 的核心概念。

MCP 架構設計深度剖析-AI.x社區

從圖中可以看出,MCP 以一種更標準的方式讓 LLM(大語言模型)能夠使用不同的工具。以下是一個更簡單的可視化示例,它將幫助你更好地理解“中間協議層”的概念。

MCP 架構設計深度剖析-AI.x社區

Anthropic 的目標是實現 LLM Tool Call 的標準,而 MCP 正是這一目標的關鍵組成部分。通過 MCP,開發者可以更高效地構建和部署 AI 應用,同時確保不同工具和模型之間的互操作性。

2、為什么需要 MCP?

我認為 MCP 的出現是 Prompt Engineering(提示詞工程)發展的必然產物。隨著 AI 大模型技術的不斷進步,我們逐漸認識到,為大模型提供更結構化、更具體的上下文信息,能夠顯著提升模型的性能。在實際應用中,我們希望大模型能夠理解真實場景中的問題,這就需要向大模型提供一些特定的信息,比如:本地文件、數據庫內容、網絡實時信息等。

MCP 架構設計深度剖析-AI.x社區

在 MCP 出現之前,我們通常會手動從數據庫中篩選或使用工具檢索可能需要的信息,然后手動將這些信息粘貼到 Prompt 提示詞中。隨著問題的復雜性不斷增加,這種手工處理信息并將其引入提示詞的方式變得越來越困難。

為了克服手工提示詞的局限性,許多 LLM 平臺(比如:OpenAI、Google)引入了 Function Calling(函數調用)功能。這一機制允許大模型在需要時調用預定義的函數來獲取數據或執行操作,顯著提升了自動化水平。然而,Function Calling 也存在一些局限性。我認為,Function Call 的主要問題是平臺依賴性強,不同 LLM 平臺的 Function Calling API 實現差異較大。比如:OpenAI 的函數調用方式與 Google 的不兼容,開發者在切換大模型時需要重寫代碼,增加了適配成本。除此之外,還有安全性、交互性等問題。

數據和工具本身是客觀存在的,我們希望將數據連接到大模型的環節可以更智能、更統一。Anthropic 基于這樣的痛點設計了 MCP,使其成為 AI 大模型的“萬能轉接頭”,讓 LLM 能夠輕松獲取數據或調用工具。MCP 的具體優勢如下:

  • 豐富的生態:MCP 提供了許多現成的插件,你的 AI 應用可以直接使用。
  • 高度的統一性:MCP 不限制于特定的 AI 大模型,任何支持 MCP 的大模型都可以靈活切換。
  • 數據安全保障:你的敏感數據可以保留在本地,不必全部上傳,因為我們可以自行設計接口,確定傳輸哪些數據。

通過這些優勢,MCP 不僅提升了 AI 應用的開發效率,還增強了數據的安全性和模型的靈活性。

3、用戶如何使用 MCP?

對于大多數用戶而言,MCP 的具體實現細節并非關注重點,大家更關心的是如何能夠更便捷地利用這一特性來提升工作效率和應用體驗。

具體的使用方法可以參考官方文檔:For Claude Desktop Users。在完成配置后,你可以在 Claude 中進行測試,比如:嘗試提問:“Can you write a poem and save it to my desktop?”(你能寫一首詩并保存到我的桌面嗎?)Claude 會請求你的權限,隨后在本地新建一個文件。

此外,官方提供了大量現成的 MCP Servers,用戶只需選擇希望接入的工具并完成接入即可。以下是一些官方推薦的資源:

1.Awesome MCP Servers

2.MCP Servers Website

3.Official MCP Servers

以官方介紹的 filesystem 工具為例,它允許 Claude 像操作本地文件系統一樣讀取和寫入文件,極大地擴展了 AI 應用的功能和應用場景。

4、MCP 架構設計剖析

第一、MCP 的架構設計如下圖所示:

MCP 架構設計深度剖析-AI.x社區

MCP 架構設計由三個核心組件構成:Host、Clien t和 Server。接下來,我們通過一個實際場景來理解這些組件是如何協同工作的。

假設你正在使用 Claude Desktop (Host),并詢問:“我桌面上有哪些文檔?”

1.MCP Host

  • 角色:Claude Desktop 作為 Host,負責接收你的提問并與 Claude 大模型進行交互。
  • 功能:Host 是用戶與 AI 大模型之間的橋梁,它處理用戶的輸入并調用 AI 大模型進行處理。

2.MCP Client

  • 角色:當 Claude 大模型決定需要訪問你的文件系統時,Host 中內置的 MCP Client 會被激活。
  • 功能:MCP Client 負責與適當的 MCP Server 建立連接,將大模型的需求轉化為具體的工具調用請求。

3.MCP Server

  • 角色:在這個例子中,文件系統 MCP Server 會被調用。
  • 功能:MCP Serve r負責執行實際的文件掃描操作,訪問你的桌面目錄,并返回找到的文檔列表。

第二、MCP 整個流程如下:

  • 用戶提問:你的問題 → Claude Desktop (Host) → Claude 大模型。

模型決策:Claude模型決定需要文件信息。

  • MCP Client 調用:MCP Client 連接到文件系統 MCP Server。
  • MCP Server 執行:文件系統 MCP Server 執行操作,掃描桌面目錄。
  • 返回結果:文件系統 MCP Server 返回文檔列表。
  • 生成回答:Claude 大模型生成回答。
  • 顯示結果:回答顯示在 Claude Desktop 上。

第三、MCP 架構設計的優勢如下:

MCP 這種架構設計使得 Claude 能夠在不同場景下靈活調用各種工具和數據源。開發者只需專注于開發對應的 MCP Server,無需關心 Host 和 Client 的實現細節。這不僅提高了開發效率,還增強了系統的靈活性和可擴展性。

MCP 架構設計深度剖析-AI.x社區

通過 MCP,開發者可以輕松地將各種工具和數據源集成到 AI 應用中,而用戶則可以享受到更加智能和便捷的交互體驗。

5、MCP 運作機制剖析

要真正理解 MCP,我們需要深入其運作機制,這不僅能揭示 MCP 調用方式與傳統 HTTP 調用方式的差異,還能讓你明白為何 MCP 能夠助力 AI Agent 邁向第二階段。

以開發一個獲取時間的 AI Agent 為例,用戶只需提問“現在幾點了?”即可。假設我們已有一個處理時間的 MCP Server,其中包含兩個 MCP Tool:一個用于獲取當前時區,另一個用于獲取當前時間。

MCP 架構設計深度剖析-AI.x社區

基于 MCP 的調用過程分為六個核心步驟:

第一、用戶提問

  • 用戶向 AI Agent 提問“現在幾點了?”。此時,AI Agent 作為 MCP Client,將用戶問題連同處理時間的 MCP Server 及 MCP Tool 信息一并發送給 LLM。

第二、LLM 推理

  • LLM 接收到信息后,根據用戶問題和 MCP Server 信息,篩選出最合適的 MCP Server 和 MCP Tool 來解決問題,并將結果反饋給 AI Agent(MCP Client)。LLM 返回的信息可能是:“使用 time MCP Server 中的 get_current_time MCP Tool,它能解決用戶的問題。”

第三、調用 MCP Tool

  • AI Agent(MCP Client)依據 LLM 的建議,調用 time MCP Server 中的 get_current_time MCP Tool,獲取當前時間。

第四、返回結果

  • time MCP Server 將當前時間的結果返回給 AI Agent(MCP Client)。

第五、內容規整

  • AI Agent(MCP Client)將用戶問題和從 time MCP Server 獲取的結果再次提交給 LLM,請求 LLM 結合問題和答案規整內容。

第六、最終反饋

  • LLM 將規整后的內容返回給 AI Agent(MCP Client),AI Agent 再將結果原封不動地返回給用戶。

在整個 MCP 調用過程中,MCP Server 及 MCP Tool 的信息至關重要。從第一步和第二步可以看出,這些信息為 LLM 提供了解決問題的關鍵線索。這些信息本質上就是 MCP 中的 System Prompt,其核心作用是為 LLM 提供清晰的指導,幫助其更好地理解用戶需求并選擇合適的工具來解決問題。

6、MCP 總結

MCP(Model Context Protocol)的出現標志著 AI 應用與外部工具和數據交互標準的建立。通過本文的探討,我們可以總結出以下幾點關鍵信息:

第一、MCP 的本質:它是一種統一的協議標準,允許 AI 大模型以一種標準化的方式連接到各種數據源和工具。這就好比 AI 領域的“USB-C”接口,為不同設備之間的連接提供了通用的解決方案。

第二、MCP 的價值:它解決了傳統函數調用(Function Calling)所面臨的平臺依賴性問題,提供了一種更加統一、開放、安全且靈活的工具調用機制。無論是用戶還是開發者,都能從這種機制中獲益。

第三、使用與開發:對于普通用戶而言,MCP 提供了豐富的現成工具,用戶無需深入了解任何技術細節即可使用這些工具。而對于開發者來說,MCP 提供了清晰的架構和 SDK,使得工具的開發變得更加簡單。

盡管 MCP 目前仍處于發展的初級階段,但其潛力無疑是巨大的。更重要的是,基于統一標準構建的生態系統將對整個 AI 大模型領域的發展產生積極的推動作用。


本文轉載自公眾號玄姐聊AGI  作者:玄姐

原文鏈接:??https://mp.weixin.qq.com/s/V6nto57O8ZD48ig8pq-iPQ??


?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2025-4-16 10:26:30修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 欧美日韩亚洲在线 | av国产精品毛片一区二区小说 | 久草新在线 | 一级欧美一级日韩片免费观看 | 国产伦精品一区二区三区照片91 | 国产精品一区在线观看 | 在线观看精品 | 中文字幕在线精品 | 99国产在线| 日韩电影免费在线观看中文字幕 | 欧美一级久久 | 欧美精品一区在线 | 精品视频一区二区在线观看 | 欧美一区二区三区视频 | 亚洲成人一区二区在线 | 中文字幕 在线观看 | 日韩欧美一区在线 | 国产伦精品一区二区 | 成人亚洲| 人成在线视频 | 四虎永久免费在线 | 久久中文字幕一区 | 亚洲视频在线免费观看 | 日韩一区二区福利 | 国产露脸国语对白在线 | 国产在线二区 | 国产福利在线视频 | 国产精品美女久久久久久免费 | 久久综合九色综合欧美狠狠 | 久久精品中文字幕 | 久久久久久久久久久久91 | 欧美日本一区二区 | 成年人视频在线免费观看 | 日韩三区| 视频三区 | 亚洲综合大片69999 | 国产高清免费视频 | 国产精品久久久久久久久久久久 | 综合久久亚洲 | 亚洲一区 | 亚洲精品毛片av |