在 AI 應用快速發展的今天,開源項目如 Dify 正成為構建本地化 AI 應用的利器。通過 Dify,你可以輕松地集成不同的大語言模型(LLM),如 Ollama,并快速創建可交互的 AI 應用。本篇文章將帶你一步步通過 Docker 在本地部署 Dify,并完成 Ollama 模型的集成配置。
一、準備工作:安裝 Docker
在正式部署前,需要先確保本地環境已安裝好 Docker。
-
可前往 Docker 官網 下載適合你系統的 Docker Desktop;
-
安裝完成后,打開終端(Windows 用戶可使用 CMD 或 PowerShell)執行
docker -v
,驗證是否成功安裝。
二、獲取并解壓 Dify 項目文件
-
打開 Dify GitHub 倉庫;
-
點擊 Code > Download ZIP 下載項目壓縮包;
-
解壓縮后,進入解壓出的
dify
文件夾,再進入docker
子目錄。
三、通過 Docker Compose 啟動服務
在 dify/docker
文件夾中,按以下步驟操作:
# 啟動終端并切換到當前目錄
cd dify/docker# 啟動 Docker Compose
docker compose up -d
服務成功啟動后,打開瀏覽器訪問:
http://127.0.0.1
首次訪問會跳轉到安裝頁面,設置管理員密碼,即可進入管理后臺。
四、解決配置文件版本問題(如有)
在部分環境中,可能會遇到配置文件中定義的鏡像版本不可用的情況。這時需要:
-
打開
docker-compose.yml
文件; -
找到
dify-api
和dify-web
兩個服務; -
將它們的鏡像版本號修改為當前 GitHub 上最新的穩定版本。
例如:
services:dify-api:image: langgenius/dify-api:latestdify-web:image: langgenius/dify-web:latest
保存文件后,重新運行 docker compose up -d
即可。
五、配置 Ollama 模型提供商
完成 Dify 部署后,我們來集成本地運行的 Ollama 模型:
1. 打開 Model Provider 頁面
進入 Dify 后臺,點擊左側導航欄的 Settings > Model Provider。
2. 添加 Ollama 模型服務
-
點擊 Add;
-
在彈窗中選擇 Ollama 作為模型提供商;
-
在模型類型中選擇 LLM(對話用),另一種為 Embedding(嵌入用);
-
打開終端,運行
ollama list
,復制想要集成的模型名稱(如llama3
); -
粘貼至
Model Name
輸入框; -
設置
Base URL
:-
如果 Dify 運行在 Docker 容器內,而 Ollama 運行在本地,則需使用:
http://host.docker.internal:11434
-
-
保存配置。
3. 測試模型集成效果
配置完成后,你就可以在 Dify 中創建一個新應用,使用剛剛配置的模型來對話或執行任務了。
總結
通過本文你可以實現:
-
? 使用 Docker 快速部署 Dify;
-
? 修復可能出現的鏡像版本問題;
-
? 集成本地 Ollama 模型,實現 LLM 聊天功能。
如你有更進一步的自定義部署需求(如綁定域名、HTTPS 配置、多用戶權限管理等),可繼續深入研究 Dify 的官方文檔和社區資源。如果你希望我繼續擴展某部分內容,比如創建具體應用示例,也可以告訴我!