從 MCP 到 A2A,AI Agent 應用架構設計演進之路 原創
AI Agent 本質上是一種通過控制大語言模型(LLM)來解決問題的 AI 應用系統,但這一本質特征并不妨礙其成為大模型時代最具潛力的應用方式。尤其在 DeepSeek 和 Manus 等項目今年爆火之后,AI Agent 被認為即將迎來發展的黃金時期。然而,AI Agent 的發展也面臨著諸多瓶頸,比如:應用程序調用的復雜性以及跨平臺 AI Agent 之間的通信問題等。不過,隨著谷歌4月10日發布開源協議 A2A(Agent-to-Agent 協議),以及 MCP(Model Context Protocol) 協議的逐漸普及和大規模應用,這些問題有望逐步得到解決。隨著時間的推移,AI Agent 將不斷走向成熟,其發展前景令人期待。
首先,讓我們來探討一下已經基本成為行業標準的 MCP 協議(詳見這里:《???MCP 架構設計演進:從 Local MCP Server 到 Remote MCP Server 開源架構設計實現??》)。MCP 協議主要解決了大模型在調用外部數據和應用時的規范性問題。該協議采用了客戶端-服務器架構:客戶端負責將大語言模型的請求發送到 MCP 服務器,隨后服務器將這些請求轉發至相應的資源。只要 AI Agent 支持 MCP 協議,便可以直接調用那些配備了 MCP 服務器的應用,無需再為各種各樣的插件功能而煩惱。簡而言之,MCP 協議有效解決了 AI Agent 調用外部數據和應用的難題。
其次,谷歌于4月10日發布的 A2A 協議(詳見這里:《???“谷歌版 MCP”來了!重磅開源 A2A 智能體交互新架構???》)同樣值得關注。A2A 協議的誕生,使得基于不同底層框架和供應商平臺創建的 AI Agent 之間能夠實現相互通信,這無疑是其最為突出的貢獻。
以一個更直觀的例子來說,倘若 A2A 協議能夠像 MCP 協議那樣得到廣泛采用,那么在阿里云上創建的 AI Agent 將能夠與火山云上創建的 AI Agent 進行無縫的通信與協作。
基于 A2A 協議的開源理念,谷歌并未為其添加任何獨有的內容,而是采用了當前流行的標準技術進行構建,比如:HTTP、SSE、JSON-RPC 等。這種設計不僅便于企業將其與現有的 IT 環境進行集成,還確保了高度的兼容性。此外,A2A 協議還支持企業級的認證和授權機制,從而有效保障了 AI Agent 協作過程中的安全性。
在文章開篇,我們提到 AI Agent 本質上是通過控制大語言模型(LLM)來解決問題的 AI 應用系統。MCP 協議的標準化和普及,解決了 AI Agent 在調用外部數據和應用時的難題,顯著提升了其工作效率。而 A2A 協議的出現,則進一步推動了 AI Agent 的發展,使得不同底層框架和供應商平臺創建的 AI Agent 能夠實現相互通信與協作。這標志著 AI Agent 的應用范圍從單一提升工作效率,邁向了大規模驅動應用的新階段。
本文轉載自公眾號玄姐聊AGI 作者:玄姐
原文鏈接:??https://mp.weixin.qq.com/s/77o8jMME9E2MtgZNHyR78w??
