忘掉 Manus 模型上下文協(xié)議MCP 正在重新定義智能體的未來 原創(chuàng)
大多數(shù)普通人眼里 AI 的模樣是什么?看著網(wǎng)站草圖,AI就自動(dòng)做了一個(gè)原形網(wǎng)站。只需要告訴 AI 指令,它就幫你完成了一系列的機(jī)票訂票流程。許多人更是憧憬過 All in One App —— 我只要?jiǎng)幼欤磺谢钣蠥I搞定。可以說,現(xiàn)階段的 AI 使用形態(tài),充其量就是個(gè)氛圍組。我只能獲取必要的資料指引,具體的活還得我自己來干。
而過去兩年的發(fā)展,AI Agent 不過是雷聲大,雨點(diǎn)小的玩意了。做的人很多,但是能夠在路人之間火出圈的產(chǎn)品,大抵也只有 Manus,它的火爆宣告著 —— AI Agent,就是眾人的希望。沒辦法,誰讓人類就是這么懶呢?要是一個(gè)技術(shù)能讓我偷懶摸魚,那最好趕緊的。接觸 MCP 之后,全知全能 AI Agent可能真的近在咫尺了,比如下面這些場(chǎng)景。
1. 基于內(nèi)部文檔的智能客服
把幫助文檔做成 MCP 服務(wù),直接變身智能客服,不需要做 RAG 知識(shí)庫,也能夠精準(zhǔn)解答客戶基礎(chǔ)問題。
2. 自動(dòng)網(wǎng)頁爬蟲工具
讓 AI 自動(dòng)爬取澳洲各高校錄取要求,自動(dòng)生成匯總生成招生簡(jiǎn)章,并附上所有引用信源。
你可以直接點(diǎn)擊此處看看它寫的咋樣。??http://au.pflm.net/news/??
3. 瀏覽器操作助手
讓 AI 操作瀏覽器,登錄 WP 網(wǎng)站后臺(tái),按照你的需求進(jìn)行點(diǎn)點(diǎn)的操作。我更喜歡這個(gè)案例,因?yàn)樗娴目梢钥炊愕木W(wǎng)頁內(nèi)容,按照你的指令干活。而實(shí)現(xiàn)這一切的背后技術(shù),全然離不開 Anthropic 在 24 年 12 月悄的 MCP(模型上下文協(xié)議)標(biāo)準(zhǔn)。
接下來,將深入解析 MCP 的概念、技術(shù)原理以及多種應(yīng)用場(chǎng)景,幫助你快速理解并上手 MCP。
什么是 MCP?
MCP(模型上下文協(xié)議)是一個(gè)標(biāo)準(zhǔn)化工具箱,使 AI 大模型能夠與外部工具交互,獲取信息并完成具體任務(wù)。在傳統(tǒng)方法中,用戶需要手動(dòng)復(fù)制文本、截圖,然后粘貼到 AI 窗口進(jìn)行交互。而 MCP 通過標(biāo)準(zhǔn)化協(xié)議自動(dòng)化了這一過程,作為 AI 與外部工具的中間層,替代人工操作,相當(dāng)于一個(gè)能夠讓所有 LLM 順暢自動(dòng)使用互聯(lián)網(wǎng)上的一系列軟件工具,只要支持了 MCP,那么不用你教,LLM 自己就會(huì)用了。
智能體普及緩慢最重要的一個(gè)原因在于大模型與現(xiàn)有應(yīng)用和數(shù)據(jù)的集成度比較低,無法獲取多種數(shù)據(jù),形成數(shù)據(jù)孤島。真是應(yīng)了那句 “巧婦難為無米之炊”。即使你大模型在強(qiáng)大,沒有數(shù)據(jù)集成、工具的調(diào)用,大模型的能力無用武之地。在 Anthropic 發(fā)布 MCP 之后將會(huì)將 AI 應(yīng)用開發(fā)推向一個(gè)高度。許多大模型開發(fā)框架 Spring AI、 LangChain4j 都已經(jīng)集成,包括 OpenAI 也宣布支持 MCP。
MCP 的工作原理
MCP 由多個(gè) MCP 服務(wù)器(MCP Server)組成,每個(gè) Server 負(fù)責(zé)特定任務(wù),例如:
- 瀏覽器操作(如讀取網(wǎng)頁內(nèi)容)
- 文檔處理(如編輯和解析本地文檔)
- 代碼管理(如操作 Git 倉庫)
架構(gòu)組件 | 描述 |
MCP Host | 通過 MCP 訪問數(shù)據(jù)的 Claude Desktop、IDE 、 AI 工具或自己開發(fā)應(yīng)用等程序 |
MCP Clients | 與服務(wù)器保持 1:1 連接的協(xié)議客戶端 |
MCP Servers | 輕量級(jí)程序,每個(gè)程序都通過標(biāo)準(zhǔn)化的 Model Context Protocol 公開特定功能 |
Local Data Sources | MCP 服務(wù)器可以安全訪問的計(jì)算機(jī)文件、數(shù)據(jù)庫和服務(wù) |
Remote Services | MCP 服務(wù)器可以連接到的 Internet 上可用的外部系統(tǒng)(例如,通過 API) |
架構(gòu)上也是非常簡(jiǎn)單,核心內(nèi)容還是在于三部分內(nèi)容:MCP Client、MCP Server 以及 Client 與 Server之間的交互協(xié)議 Transport。
工作原理
MCP的工作原理可以概括為三個(gè)關(guān)鍵步驟,這三個(gè)步驟環(huán)環(huán)相扣,如同精密的齒輪,推動(dòng)著 AI 與數(shù)據(jù)之間的交互 。
1. 調(diào)用聊天完成 API 傳遞函數(shù)和用戶輸入
當(dāng)我們?cè)? MCP 主機(jī)(如 Claude Desktop)上向 AI 助手提出一個(gè)問題時(shí),MCP 客戶端會(huì)將這個(gè)問題以及相關(guān)的函數(shù)調(diào)用信息,通過聊天完成 API 傳遞給 MCP 服務(wù)器 。例如,我們?cè)儐?“我昨天在 GitHub 上提交的代碼有哪些問題?”,MCP 客戶端就會(huì)把這個(gè)問題和與 GitHub 相關(guān)的函數(shù)調(diào)用信息發(fā)送給 MCP 服務(wù)器。
2. 用模型響應(yīng)調(diào)用 API 或函數(shù)
MCP服務(wù)器接收到請(qǐng)求后,會(huì)將其傳遞給AI模型。AI模型根據(jù)接收到的信息進(jìn)行分析和處理,然后生成一個(gè)響應(yīng)。這個(gè)響應(yīng)可能包含對(duì)API或函數(shù)的調(diào)用指令。比如,AI模型判斷需要獲取GitHub上的代碼信息,就會(huì)生成調(diào)用GitHub API的指令,MCP服務(wù)器會(huì)根據(jù)這些指令去調(diào)用相應(yīng)的API或函數(shù),獲取所需的數(shù)據(jù)。
3. 再次調(diào)用 API 得到最終響應(yīng)
MCP服務(wù)器獲取到API或函數(shù)的執(zhí)行結(jié)果后,會(huì)將這個(gè)結(jié)果再次與用戶的原始輸入一起,通過聊天完成API發(fā)送給AI模型。AI模型根據(jù)這些信息生成最終的響應(yīng),并通過 MCP客戶端返回給用戶。在上述例子中,MCP服務(wù)器將從GitHub獲取到的代碼信息發(fā)送給AI模型,AI模型分析后給出關(guān)于代碼問題的回答,然后通過MCP客戶端展示給用戶。
MCP為大模型帶來的變革
MCP 賦予了 AI 自助提問,自主尋找答案和結(jié)果的權(quán)力, 為 AI 大模型帶來了變革。
(一)打破數(shù)據(jù)孤島
在傳統(tǒng)的數(shù)據(jù)集成方式中,每個(gè)數(shù)據(jù)源都像是一座孤立的島嶼,與其他數(shù)據(jù)源之間缺乏有效的連接。不同的數(shù)據(jù)庫、文件系統(tǒng)、服務(wù)等,由于各自的接口、協(xié)議、數(shù)據(jù)格式等不同,很難實(shí)現(xiàn)數(shù)據(jù)的自由流動(dòng)和共享。這就導(dǎo)致AI大模型在獲取數(shù)據(jù)時(shí)面臨重重困難,無法充分利用各種數(shù)據(jù)資源來提升自身的能力。
而 MCP 的出現(xiàn),就像是一場(chǎng) “數(shù)據(jù)解放運(yùn)動(dòng)”,打破了這些數(shù)據(jù)孤島之間的壁壘 。它提供了一個(gè)標(biāo)準(zhǔn)化的協(xié)議,讓AI大模型能夠以統(tǒng)一的方式訪問各種數(shù)據(jù)源,無論是本地的文件、數(shù)據(jù)庫,還是遠(yuǎn)程的 API服務(wù)。通過 MCP,不同的數(shù)據(jù)源可以輕松地連接到AI模型,就像無數(shù)條小溪匯聚成一條大河,讓數(shù)據(jù)能夠自由地流動(dòng)起來 。
以一個(gè)企業(yè)為例,它可能擁有客戶關(guān)系管理系統(tǒng)(CRM)、企業(yè)資源規(guī)劃系統(tǒng)(ERP)、數(shù)據(jù)分析平臺(tái)等多個(gè)不同的系統(tǒng),每個(gè)系統(tǒng)都存儲(chǔ)著重要的數(shù)據(jù) 。在過去,這些系統(tǒng)之間的數(shù)據(jù)很難共享,AI大模型想要獲取這些數(shù)據(jù),需要分別與每個(gè)系統(tǒng)進(jìn)行復(fù)雜的集成 。但有了MCP之后,企業(yè)可以通過MCP服務(wù)器將這些系統(tǒng)的數(shù)據(jù)暴露出來,AI大模型只需要通過MCP客戶端,就能夠輕松地訪問這些數(shù)據(jù),實(shí)現(xiàn)數(shù)據(jù)的整合和利用,為企業(yè)的決策提供更全面、準(zhǔn)確的支持 。
(二)簡(jiǎn)化開發(fā)流程
在 MCP 出現(xiàn)之前,開發(fā)者要讓 AI 大模型與不同的數(shù)據(jù)源進(jìn)行交互,需要為每個(gè)數(shù)據(jù)源編寫單獨(dú)的連接器。這就好比你要連接不同的電器設(shè)備,卻需要為每個(gè)設(shè)備都準(zhǔn)備一種獨(dú)特的插頭,不僅繁瑣,而且容易出錯(cuò)。每一個(gè)新的數(shù)據(jù)源,都意味著開發(fā)者要花費(fèi)大量的時(shí)間和精力去了解其接口規(guī)范、數(shù)據(jù)格式,編寫相應(yīng)的代碼來實(shí)現(xiàn)數(shù)據(jù)的讀取、寫入和處理。而且,當(dāng)數(shù)據(jù)源發(fā)生變化或者需要更新時(shí),開發(fā)者還需要對(duì)連接器進(jìn)行維護(hù)和修改,這無疑增加了開發(fā)的成本和復(fù)雜性 。
MCP的出現(xiàn),就像是為所有的電器設(shè)備提供了一個(gè)通用的插頭,讓開發(fā)者無需再為每個(gè)數(shù)據(jù)源編寫單獨(dú)的連接器。它提供了一個(gè)標(biāo)準(zhǔn)化的接口,開發(fā)者只需要遵循這個(gè)接口規(guī)范,就能夠輕松地將不同的數(shù)據(jù)源連接到 AI 大模型 。無論是連接數(shù)據(jù)庫、文件系統(tǒng),還是調(diào)用 API 服務(wù),都變得簡(jiǎn)單而高效 。
例如,一個(gè)開發(fā)者想要讓 AI 大模型能夠訪問 GitHub 上的代碼倉庫和 Slack 上的團(tuán)隊(duì)聊天記錄 。在沒有 MCP 的情況下,他需要分別為 GitHub 和 Slack 編寫不同的連接器,處理不同的認(rèn)證方式、數(shù)據(jù)格式等問題。而有了MCP之后,他只需要使用 MCP 提供的客戶端和服務(wù)器 SDK,按照MCP的規(guī)范進(jìn)行配置,就能夠快速地實(shí)現(xiàn) AI 大模型與 GitHub 和 Slack 的連接,大大簡(jiǎn)化了開發(fā)流程,提高了開發(fā)效率 。
(三)增強(qiáng)模型能力
數(shù)據(jù)是AI大模型的 “燃料”,更多、更豐富的數(shù)據(jù)能夠讓模型學(xué)習(xí)到更多的知識(shí)和模式,從而提升其性能和表現(xiàn)。MCP通過為AI大模型提供無縫的數(shù)據(jù)訪問,讓模型能夠獲取到更廣泛、更實(shí)時(shí)的數(shù)據(jù),從而生成更精準(zhǔn)、相關(guān)的響應(yīng) 。
當(dāng)AI大模型能夠訪問實(shí)時(shí)的新聞數(shù)據(jù)時(shí),它在回答關(guān)于時(shí)事熱點(diǎn)的問題時(shí),就能夠給出更及時(shí)、準(zhǔn)確的答案。當(dāng)模型能夠連接到專業(yè)的學(xué)術(shù)數(shù)據(jù)庫時(shí),它在處理學(xué)術(shù)問題時(shí),就能夠提供更深入、專業(yè)的見解。MCP還能夠讓模型在不同的數(shù)據(jù)源之間進(jìn)行上下文切換,更好地理解用戶的問題和需求 。
比如,在一個(gè)智能客服場(chǎng)景中,客服人員向AI大模型詢問某個(gè)客戶的訂單信息以及該客戶的歷史咨詢記錄。通過MCP,AI大模型可以同時(shí)訪問訂單管理系統(tǒng)和客戶服務(wù)系統(tǒng)的數(shù)據(jù),快速準(zhǔn)確地獲取到相關(guān)信息,并根據(jù)這些信息為客服人員提供全面的解答,提高客戶服務(wù)的質(zhì)量和效率。MCP就像是為AI大模型打開了一扇通往知識(shí)寶庫的大門,讓模型能夠不斷地汲取新的知識(shí)和信息,變得更加智能和強(qiáng)大 。
快速上手:安裝 MCP
就像大部分軟件使用一樣,想要讓 AI 使用上 MCP,那么你得安裝一個(gè)客戶端軟件。這個(gè)軟件不僅要能調(diào) AI,還需要連接 MCP 服務(wù)器。
1、安裝支持 MCP 的客戶端
目前支持 MCP 的客戶端較少,基本只有以下工具:
- Cursor(AI 編程工具,開通 MCP 需支付 20 美元/月)
- Claude 官方客戶端 (美國信用卡 20 美元 / 月)
- Client(開源免費(fèi),本文以此為例)
我知道你們?cè)谙肷叮痪褪清X的事(你還得搞定美國信用卡),所以下文將會(huì)用免費(fèi)的 VS Code + Cline 插件來帶你一步步安裝 → 感受你的 AI Agent 時(shí)刻。
1.1 安裝 Cline 并配置 AI 模型
- 下載并安裝 VS Code。??https://code.visualstudio.com/??
- 在 VS Code 的 Extensions(插件)市場(chǎng)搜索并安裝 Client。
3.配置 AI 模型:
- 選擇 DeepSeek 作為模型提供商。
- 去 DeepSeek API 平臺(tái) () 申請(qǐng)一個(gè) API Key。現(xiàn)在官方的服務(wù)器已經(jīng)可以穩(wěn)定使用了。
- 選擇 ?
?deepseek-chat?
?。你也可以使用 ??deepseek-r1?
?,我只是嫌它每次使用工具還要思考一遍,太內(nèi)耗太慢了。
這安裝頁面這么程序員,有沒有一個(gè)更小清新的使用入口?沒錯(cuò)希望我朋友圈的大廠里的高人快速整一個(gè),AI 大舞臺(tái),有夢(mèng)你就來。MCP 時(shí)代,客戶端軟件是妥妥的流量入口。
2、安裝 Node.js 運(yùn)行環(huán)境
MCP Server 運(yùn)行在本地的 Node.js 進(jìn)程上,因此需要安裝 Node.js。
- 訪問 Node.js 官網(wǎng) 下載并安裝。??https://nodejs.org/??
- 驗(yàn)證安裝:
打開你的終端,運(yùn)行以下命令:
node -v
npx -v
好了確保成功輸出版本號(hào)。
3、安裝 MCP Server
1. 在 Cline 內(nèi)點(diǎn)擊 MCP Server 按鈕,打開 MCP Server 應(yīng)用市場(chǎng)。
2. 選擇所需的 MCP Server(例如 Playwright 會(huì)使用瀏覽器的工具),點(diǎn)擊安裝。
4、 測(cè)試 MCP Server
- 在 Cline 中輸入命令:使用 Playwright 打開網(wǎng)站: au.pflm.net
- AI 自動(dòng)調(diào)用 MCP 工具,此時(shí)你需要點(diǎn)擊同意。
3.然后你就可以讓 AI 去幫你干活了,比如說扒拉網(wǎng)頁中的內(nèi)容,變成自己的文檔。
4.其它 MCP 工具同理。
更多 MCP 工具推薦
- browser2:AI 讀取瀏覽器內(nèi)容,需安裝 Chrome 插件。
- Squint Shell Thinking:將普通大模型轉(zhuǎn)換為推理模型。
- Filesystem:允許 AI 訪問本地文件系統(tǒng)。
你也可以訪問訪問 Smithery AI https://smithery.ai/ 發(fā)現(xiàn)更多 MCP Server。
MCP 作為 AI 與外部工具交互的標(biāo)準(zhǔn)協(xié)議,極大提升了自動(dòng)化能力。掌握 MCP 的基本原理和配置方法,可以幫助你高效利用 AI 進(jìn)行開發(fā)和數(shù)據(jù)處理。
總結(jié)
自 Anthropic 公司開源 MCP 以來,它便在AI 領(lǐng)域引起了廣泛關(guān)注,猶如一顆投入平靜湖面的石子,激起層層漣漪。許多知名企業(yè)和平臺(tái)已經(jīng)敏銳地察覺到MCP的潛力,并紛紛接入。美國金融服務(wù)公司 Block Inc. 已經(jīng)把MCP整合進(jìn)了他們的系統(tǒng),借助MCP,能夠更高效地處理金融數(shù)據(jù),為客戶提供更精準(zhǔn)的金融服務(wù)。
在開源方面,Anthropic 為開發(fā)者提供了豐富的資源,包括模型上下文協(xié)議規(guī)范、軟件開發(fā)工具包(SDK),以及 Claude 桌面應(yīng)用程序中的本地 MCP 服務(wù)器支持。還提供了一個(gè) MCP 服務(wù)器的開源存儲(chǔ)庫,開發(fā)者可以根據(jù)自己的需求,在這個(gè)基礎(chǔ)上進(jìn)行二次開發(fā),構(gòu)建出符合自己業(yè)務(wù)需求的 MCP 應(yīng)用 。
展望未來,MCP將進(jìn)一步推動(dòng)AI生態(tài)系統(tǒng)的發(fā)展,促進(jìn)不同AI模型、數(shù)據(jù)源和工具之間的互聯(lián)互通。它將成為AI世界的 “通用語言”,讓各種AI組件能夠更加順暢地協(xié)作,形成一個(gè)更加龐大、高效的AI生態(tài)網(wǎng)絡(luò)。在這個(gè)生態(tài)網(wǎng)絡(luò)中,開發(fā)者可以更輕松地構(gòu)建出復(fù)雜的AI應(yīng)用,實(shí)現(xiàn)更多創(chuàng)新的想法 。
MCP的發(fā)展也面臨著一些挑戰(zhàn)。數(shù)據(jù)安全和隱私保護(hù)始終是重中之重,隨著MCP連接的數(shù)據(jù)源越來越多,如何確保數(shù)據(jù)在傳輸和使用過程中的安全性和隱私性,是需要持續(xù)關(guān)注和解決的問題。不同數(shù)據(jù)源和系統(tǒng)之間的兼容性問題也不容忽視,MCP需要不斷優(yōu)化,以適應(yīng)各種復(fù)雜的環(huán)境。隨著MCP的應(yīng)用場(chǎng)景不斷拓展,對(duì)其性能和可擴(kuò)展性也提出了更高的要求,需要不斷進(jìn)行技術(shù)創(chuàng)新和改進(jìn) 。
本文轉(zhuǎn)載自公眾號(hào)數(shù)字化助推器 作者:天涯咫尺TGH
原文鏈接:??https://mp.weixin.qq.com/s/30MDvDNE3zF4f2kGHWazbQ??
