成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

擺脫云端限制!Qwen3+MCP+Ollama 本地工具調(diào)用實戰(zhàn)教程

發(fā)布于 2025-5-7 07:01
瀏覽
0收藏

通義千問3(Qwen3)是阿里巴巴通義千問團隊發(fā)布的最新開源大語言模型,它具備強大的性能、高度的模塊化特性以及出色的工具使用能力。

本文教你如何通過Ollama在本地運行通義千問3,并啟用模型上下文協(xié)議(MCP),以使用代碼解釋器、數(shù)據(jù)獲取、時間查詢等工具。

通過學習,你會構(gòu)建一個完全在本地機器上運行、由通義千問3驅(qū)動的智能助手,且無需云API密鑰!開始吧!

1.為什么選擇通義千問3 + Ollama + MCP

為了實現(xiàn)這些先進功能,阿里巴巴推出了模型上下文協(xié)議(MCP)。MCP允許模型通過調(diào)度命令行服務(wù)與外部工具進行交互,這讓大語言模型能夠以結(jié)構(gòu)化且安全的方式獲取時間、從網(wǎng)站抓取數(shù)據(jù),或調(diào)用其他本地工具。

在通義千問智能體(Qwen-Agent)生態(tài)系統(tǒng)中,諸如??mcp-server-time???和??mcp-server-fetch??之類的MCP工具,充當著端點的角色,模型可在需要時自行觸發(fā)這些端點。這些工具通過一個字典進行配置,該字典會告知智能體每個功能應(yīng)運行的命令。

  • 通義千問3:專為開源部署優(yōu)化的前沿大語言模型。
  • Ollama:通過一條命令就能簡化本地大語言模型(如通義千問3)的部署。
  • MCP:允許外部工具通過結(jié)構(gòu)化消息進行通信(例如網(wǎng)頁瀏覽或時間查詢)。
  • 工具使用:拓展通義千問3的能力,使其超越靜態(tài)文本處理——支持執(zhí)行代碼、調(diào)用API等更多功能!

2 在本地設(shè)置Ollama和通義千問3

步驟1:安裝Ollama并運行通義千問3

在本地終端(Linux/macOS系統(tǒng))運行以下命令:

# 安裝Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 啟動Ollama服務(wù)器
ollama serve

然后拉取通義千問3模型:

ollama pull qwen3

這會獲取通義千問3的模型權(quán)重,并通過??http://localhost:11434/v1??這個Ollama API端點,為在本地使用做好準備。

步驟2:克隆并安裝通義千問智能體(Qwen-Agent)

接下來,克隆通義千問智能體的官方代碼庫,并安裝支持圖形用戶界面(GUI)、檢索增強生成(RAG)、代碼解釋以及MCP所需的額外組件。運行以下命令:

# 克隆代碼庫
git clone https://github.com/QwenLM/Qwen-Agent.git
# 安裝所有額外組件
pip install -e ./Qwen-Agent"[gui, rag, code_interpreter, mcp]"

??-e??標記確保以可編輯模式安裝該軟件包,方便在需要時深入研究其內(nèi)部機制。安裝完成后,你可以編寫一個Python腳本來連接智能助手和Ollama,并啟用工具使用功能。

步驟3:編寫Python腳本

以下是通過MCP + Ollama運行一個支持工具使用的智能助手的完整代碼:

from qwen_agent.agents import Assistant

# 步驟1:配置本地通義千問3模型(由Ollama提供服務(wù))
llm_cfg = {
   'model': 'qwen3',
   'model_server': 'http://localhost:11434/v1',  # Ollama API
    'api_key': 'EMPTY',
}

# 步驟2:定義工具(MCP + 代碼解釋器)
tools = [
    {'mcpServers': {
            'time': {
                'command': 'uvx',
                'args': ['mcp-server-time', '--local-timezone=Asia/Shanghai']
            },
            'fetch': {
                'command': 'uvx',
                'args': ['mcp-server-fetch']
            }
        }
    },
    'code_interpreter',
]

# 步驟3:初始化通義千問智能體助手
bot = Assistant(llm=llm_cfg, function_list=tools)

# 步驟4:發(fā)送包含URL的用戶消息
messages = [{'role': 'user', 'content': 'https://qwenlm.github.io/blog/ Introduce the latest developments of Qwen'}]

# 步驟5:運行智能助手并打印結(jié)果
for responses in bot.run(messages=messages):
    pass
print(responses)

這個腳本使用Ollama后端初始化通義千問3模型,并注冊了兩個MCP工具(??time???和??fetch???)以及內(nèi)置的??code_interpreter??。在根據(jù)需求評估工具或代碼后,智能助手會處理用戶消息并返回響應(yīng)。

3.總結(jié)

通義千問 3 搭配通義千問智能體(Qwen - Agent)、模型上下文協(xié)議(MCP)和 Ollama,可構(gòu)建強大的本地人工智能助手,擺脫對外部云服務(wù)的依賴。該組合支持多輪對話、實時信息檢索與 Python 代碼執(zhí)行,所有操作均可在本地環(huán)境完成。

對于重視隱私、追求靈活性與擴展性,且致力于構(gòu)建智能體的開發(fā)者、研究人員和產(chǎn)品團隊而言,這無疑是理想之選。隨著通義千問 3 持續(xù)迭代,未來它將更有力地支持復雜任務(wù),實現(xiàn)與自定義工具的無縫融合,為本地自主人工智能智能體的發(fā)展開拓廣闊前景。

本文轉(zhuǎn)載自??AI科技論談?????,作者:AI科技論談

收藏
回復
舉報
回復
相關(guān)推薦
主站蜘蛛池模板: 一区视频在线免费观看 | 99精品国产成人一区二区 | 久久久精品一区 | 国产精品成人品 | 国产一区二区三区在线 | 国产视频中文字幕 | 美女人人操 | 日韩在线视频免费观看 | 天天干天天玩天天操 | 91一区二区在线观看 | 日本一区二区高清不卡 | 蜜桃日韩| 亚洲精品一区二区在线观看 | 久久久久久免费毛片精品 | 日韩视频一区二区三区 | 一二三区视频 | 免费一二区 | 久久久久亚洲 | 中文字幕蜜臀av | 人人干在线视频 | 国内精品久久久久 | 欧美日韩精品一区二区三区四区 | 国产精品成人品 | 毛片毛片毛片毛片毛片 | 亚洲 欧美 日韩 在线 | 中文字幕一区二区三区四区 | 欧美精品在线免费观看 | 成人夜晚看av | 免费啪啪| 亚洲国产成人精品女人久久久野战 | 高清久久久 | 亚洲黄色一级 | 黄色欧美视频 | 欧美极品在线播放 | av免费观看在线 | 国产精品久久国产精品 | 狠狠草视频 | 做a视频| 日韩精品免费在线观看 | 中文字幕高清 | 国产成人精品综合 |