搭建Dify+Ollama本地聊天機器人
Dify 是一款功能強大、易于使用的開源 AI 平臺,它為開發者提供了一個構建、部署和管理 AI 應用的便捷方式。 憑借其可視化界面、多模型支持和可擴展性,Dify 正在成為越來越多開發者和企業的首選,本篇我們一起來看看如何快捷方便地搭建Dify+Ollama本地聊天機器人。
一、安裝部署
Dify有兩種安裝方式,一種是Docker Compose部署,另一種是本地源碼編譯后再安裝,為了方便快捷,本次選擇在Ubuntu下用Docker Compose部署,Dify也支持Windows 或macOS系統。還要確保電腦有足夠的硬件資源來運行Ollama大模型,建議配備一個GPU。
1.安裝docker
在Ubuntu終端中運行:
# 添加 Docker 的官方 GPG 密鑰:
sudo apt-get update
sudo apt-get install ca-certificates curl
sudo install -m 0755 -d /etc/apt/keyrings
sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg -o /etc/apt/keyrings/docker.asc
sudo chmod a+r /etc/apt/keyrings/docker.asc
# 將存儲庫添加到 Apt 源:
echo \
"deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.asc] https://download.docker.com/linux/ubuntu \
$(. /etc/os-release && echo "${UBUNTU_CODENAME:-$VERSION_CODENAME}") stable" | \
sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt-get update
安裝 Docker 軟件包:
sudo apt-get install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
安裝驗證:
sudo docker run hello-world
如出現連接錯誤,可嘗試添加docker鏡像源:
創建文件 :/etc/docker/daemon.json,添加以下內容:
{
"registry-mirrors": [
"https://docker.hpcloud.cloud",
"https://docker.m.daocloud.io",
"https://docker.unsee.tech",
"https://docker.1panel.live",
"http://mirrors.ustc.edu.cn",
"https://docker.chenby.cn",
"http://mirror.azure.cn",
"https://dockerpull.org",
"https://dockerhub.icu",
"https://hub.rat.dev",
"https://proxy.1panel.live",
"https://docker.1panel.top",
"https://docker.m.daocloud.io",
"https://docker.1ms.run",
"https://docker.ketches.cn"
]
}
保存文件后,重新啟動 Docker 服務:
sudo systemctl daemon-reload
sudo systemctl restart docker
2.安裝Dify
克隆 Dify 源代碼至本地環境。
git clone https://github.com/langgenius/dify.git
啟動 Dify
cd dify/docker
cp .env.example .env
docker compose up -d
正確啟動后,打開管理員初始化頁面以設置 admin 賬戶:
http://localhost/install
填入郵箱,用戶名和密碼后,點設置,即可進入。
3.安裝Ollama
Linux用如下指令安裝:
curl -fsSL https://ollama.com/install.sh | sh
我們這里選Goolge的gemma3:12b模型,下載大模型 gemma:12b
ollama run gemma3:12b
也可以選deepseek-r1或者qwen3,完成后,即可與大模型對話了。
至此,安裝完成。
二、配置
1.創建管理員賬號
這里需要輸入一個郵箱地址和密碼。
2.登錄后如下圖,進行配置
模型設置頁:
3.填入Ollama模型信息
如果用docker部署Dify,Ollama的本機地址不能填127.0.0.1或localhost,必須填入本機真實地址,比如:https://192.168.1.30:11434,否則會出現連接錯誤。
還要配置系統模型,本次只需添加系統推理模型
4.創建一個應用
應用配置:
這里可以看到已經自動創建了對話工作流,點發布完成配置。
三、應用的運行
創建并發布新應用后,就可以在探索頁面中打開了
輸入問題就可以跟模型對話了。
四、總結
本次我們在本地電腦上安裝部署了Dify應用開發工具, 總體來說它能為我們帶這些便捷:
- 可視化工作流設計:Dify 提供了一個直觀的可視化界面,允許你通過拖放節點的方式來設計和構建 LLM 應用的工作流程。這大大降低了開發門檻,即使沒有編程經驗的人也能快速上手。
- Agent 工作流:Dify 強調 Agent 的概念,允許你創建具有自主決策能力的 AI 代理。這些代理可以執行任務、調用工具、并與外部系統進行交互。
- 數據連接:Dify 提供了與各種數據源的連接器,例如數據庫、文件存儲、API 等,方便你將 LLM 應用與你的數據集成。
- 工具集成:你可以在 Dify 中集成各種工具,例如搜索引擎、計算器、代碼執行器等,擴展 LLM 應用的功能。
- 記憶功能:Dify 支持記憶功能,允許 LLM 應用記住之前的交互和上下文信息,提供更個性化的體驗。
- 開源和可擴展:Dify 是一個開源項目,你可以自由地使用、修改和擴展它。
- 支持多種 LLM:Dify 支持多種大型語言模型,例如 OpenAI 的 GPT 系列、Google 的 PaLM、Deepseek,Qwen等開源模型等。
我們搭建的這個對話機器人暫時不具備聯網搜索功能,還需要加入一些工作流的配置,感興趣的同學可以先行了解一下,后續我會陸續在Dify中加入不同的功能,比如RAG,Agent,聯網搜索等等...
參考網址:
1. Ollama官網:https://ollama.com/
2. Dify官網:??https://dify.ai/zh??
3. Dify Github:???https://github.com/langgenius/dify/??
本文轉載自???碼農隨心筆記???,作者:碼農隨心筆記
