成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

扒一扒最近較火的MCP 原創

發布于 2025-4-10 06:28
瀏覽
0收藏

MCP正在成為一種標準,可幫助開發人員構建AI系統,使這些系統能夠與其他外部應用程序進行有效通信。Microsoft最近宣布將MCP集成到其Copilot Studio 中,以簡化AI應用程序和代理訪問工具的方式。此外,OpenAI還宣布在其產品中支持MCP,例如Agents SDK和ChatGPT的桌面應用程序。

封面的圖片很直觀的闡述了MCP,它是一種開放協議,MCP 是一個開放協議,用于標準化應用程序向大語言模型提供上下文的方式。MCP由Anthropic公司在2024年底推出,旨在解決大語言模型(LLM)與外部數據源和工具之間的集成問題。

扒一扒最近較火的MCP-AI.x社區

進入2025年它在github的星星也是一路暴漲,可以將MCP想象成AI應用的USB-C端口。正如USB-C提供了一種將設備連接到各種外圍設備和配件的標準化方式一樣,MCP也提供了一種AI模型連接到不同數據源和工具的標準化方式。

扒一扒最近較火的MCP-AI.x社區

MCP由三個核心組件構成:Host、Client和Server。

扒一扒最近較火的MCP-AI.x社區

舉個栗子解釋上圖,假設你正在使用某個大模型的桌面端(例如LLMDesktop)進行大模型詢問:"我桌面上有哪些文檔?"

  • Host:LLMDesktop作為Host,負責接收你的提問并與對應的LLM模型交互。
  • Client:當LLM模型決定需要訪問你的文件系統時,Host中內置的MCPClient會被激活。這個Client負責與適當的MCPServer建立連接。
  • Server:在這個例子中,文件系統會被MCPServer調用。它負責執行實際的文件掃描操作,訪問你的桌面目錄,并返回找到的文檔列表。

進一步抽象,當用戶提出一個問題時:

1) 客戶端把你的問題發送給LLM。

2) LLM分析可用的工具,并決定使用哪一個(或多個)。

3)客戶端通過MCPServer執行所選的工具。

4) 工具的執行結果被送回給LLM。

5) LLM結合執行結果構造最終的prompt并生成自然語言的回應。

6)回應最終展示給用戶

扒一扒最近較火的MCP-AI.x社區

1.LLM自動挑選工具

MCPServer是由LLM主動選擇并調用的!那么有意思的事情來了,模型如何選擇工具呢?可以通過分析官網的代碼得知:模型是通過Prompt Engineering來實現的。也就是說MCPServer將所有它能提供的工具進行結構化描述,包括給一些使用示例加入到提示詞,以便讓LLM理解且來確定該使用哪些工具。

什么是工具,工具可以是接口調用,也可以是任何的服務。熟悉Agent的同學應該不是很陌生。另一方面,由于MCP是Anthropic最早提出,肯定對Claude做了專門的訓練(畢竟是自家協議,Claude更能理解工具的prompt以及輸出結構化代碼)

system_message=("你是一位小助手,你有權訪問下面的這些工具:\n\n"f"{工具描述,包括出入參數}\n""請選擇最合適的工具來回答用戶的問題.""如果沒有任何工具需要,就直接回答.\n\n""重要:若你需要使用工具,你必須按照下面的格式響應"#下面對于工具的使用做出了提示詞層面的約束"…………:\n""{\n"'"tool":"tool-name",\n''"arguments":{\n''"argument-name":"value"\n'"}\n""}\n\n""Afterreceivingatool'sresponse:\n""1.Transform the rawdata into a natural,conversational response\n""2.Keep responses concise but informative\n""3.Focus on the most relevant information\n""4.Use appropriate context from the user'squestion\n""5.Avoid simply repeating the rawdata\n\n""Please use only the tools that are explicitly defined above.")

工具文檔至關重要由此而言特別重要,模型通過工具描述文本來理解和選擇工具,因此精心編寫工具的名稱、文檔和參數說明至關重要。由于MCP的選擇是基于prompt的,所以任何模型其實都適配MCP,只要你能提供對應的工具描述。但是當你使用非Claude模型時,MCP使用的效果和體驗難以保證(沒有做專門的訓練)。下面再次展示了一個例子,DB MCP Server提供了Execute SQL的Tool,然暴露出來,但是客戶使用的時候,將資源和需求發送給LLM,讓LLM決定執行的SQL與調用的工具,最后完成SQL調用和執行。

扒一扒最近較火的MCP-AI.x社區

2.MCP Server

扒一扒最近較火的MCP-AI.x社區

MCP服務是MCP世界與外部系統的特定功能(API、數據庫、本地文件等)之間的橋梁/API。它們本質上是根據MCP規范公開這些外部功能的包裝器。服務器可以用各種語言(Python、TypeScript、Java、Rust等)構建,只要它們可以通過支持的傳輸方式進行通信。服務器主要通過兩種方法與Client端通信:

  • STDIO(標準輸入/輸出):當Client和Server在同一臺計算機上運行時使用。這對于本地集成(例如,訪問本地文件或運行本地腳本)來說既簡單又有效。
  • 通過SSE的HTTP(服務器發送的事件):客戶端通過HTTP連接到服務器。初始設置后,Server可以使用SSE標準通過持久連接將消息(事件)推送到Client。

除了上述的三個要素,其實還存在另外的兩個要素:

  • 本地數據源:MCP服務可以安全訪問的計算機文件、數據庫和服務
  • 遠程服務:MCP服務可以連接到的互聯網(例如,通過API)提供的外部系統

這種架構設計使得LLM大模型可以在不同場景下靈活調用各種工具和數據源,而開發者只需專注于開發對應的MCPServer,無需關心Host和Client的實現細節。

3.熱度上升

雖然Anthropic在2024年底宣布了MCP,但其勢頭在2025年初顯著加速。這不僅僅是隨機的炒作。幾個因素匯聚在一起:

1)MCP是專為滿足現代AI Agent的需求而設計的。MCP優化和抽象了Agent的運行模式

工具(模型控制):AI決定執行的。

資源(應用程序控制):提供給AI的上下文。

提示(用戶控制):特定的用戶調用的交互。

2)MCP的開放標準存在非常好的規范,且提供非常詳細的規格說明。

3)Anthropic不是從頭開始重新發明一切,而是從語言服務器協議(LSP)改編而來,例如JSON-RPC2.0。

4)Anthropic為它構建了強大的初始生態系統,并發布了一個全面的初始客戶:ClaudeDesktop,還包括各種服務(文件系統、git、Slack等)。5. 開發工具包也是齊整。Python、TypeScript、Java、Kotlin、C#。6.Cursor和Windsurf等工具集成了MCP。Composio等公司為數百個集成提供了預構建服務。OpenAI也宣布支持MCP。

本文轉載自??魯班模錘??,作者:龐德公

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 黄色在线免费看 | 日日操操操 | 日韩久久综合 | 欧美日韩国产一区二区三区 | 九九久久精品 | 午夜免费在线观看 | 黄色在线免费观看视频 | 天堂一区二区三区四区 | 国产99久久久国产精品 | 伊人网99| wwwxxx国产 | 日本一区二区三区免费观看 | 亚洲狠狠| 精品国产乱码久久久久久果冻传媒 | 农夫在线精品视频免费观看 | 亚洲精品一区在线观看 | 成人动漫一区二区 | 国产精品亚洲第一 | 一区在线观看 | 日韩a在线 | 日韩男人天堂 | 国产精品成人在线观看 | 国产免费一二三区 | 国产一区h | 91社影院在线观看 | 国产一区不卡 | 成人高潮片免费视频欧美 | 大陆一级毛片免费视频观看 | 日韩av一区二区在线 | 黄色在线免费观看视频网站 | 亚洲成人综合社区 | 欧美日韩电影一区二区 | 在线观看成年视频 | 精品日韩一区 | 午夜影院在线免费观看视频 | 亚洲国产一区二区在线 | 麻豆久久久久 | 久精品视频 | 中文字幕日韩欧美一区二区三区 | 久久的色| 亚洲精品永久免费 |