2022年底openAI的chatgpt的出現,讓人們看到生成式AI的能力如此強大,引燃了生成式AI的一波浪潮。2025年春節前,DeepSeek的橫空出世讓大模型這個領域變得人人都可以參與進來,生成式AI大模型不再有非常高的顯卡的門檻,普通的游戲本也能跑DeepSeek的蒸餾版8b模型。目前大模型有兩個落地應用的方向,一個是知識庫(知識增強,RAG),一個是智能體(Agent)。對于知識庫來說,企業內部的大量私有化數據不適合放到外網應用,那么就誕生了私有化部署大模型的需求。而另一個方向智能體,它讓我們的應用能夠自動化、智能化的實現,讓大模型變成我們的私人助理,提升我們的工作效率和生活體驗。
那么我們怎么來實現知識庫和智能體呢?目前有很多平臺可以應用,比如Coze、Dify、langchain…,這些都是很有名氣的平臺或者框架,在github上面也很受歡迎。但是現階段綜合來看,Dify是一個更有優勢的AI應用平臺。Dify的官方主頁 https://dify.ai/zh。
Dify主要優勢如下:
- 能夠私有化部署
這很重要!企業的私有化數據隱私性很強,不適合放到外網區。Dify的開源版本可以零成本的克隆到企業內網使用,無需連外網。安全性得以保證。 - 可視化拖拽方式開發工作流
通過可視化的界面,Dify可以快速構建各類工作流應用。 - Dify提供完整的AI基礎設施
Dify為AI應用提供從構思、開發到部署、監控的全流程管理,可以10倍的提升AI應用開發體驗。
本篇博客主要講解Windows環境下的Dify平臺的搭建。
安裝Docker
Docker是一個非常好用的容器化管理工具。使用它可以不用擔心應用環境依賴的問題,直接拉取別人打包好的鏡像使用即可,做到一鍵式部署。安裝Docker可以去其官方網站下載,https://www.docker.com/。
安裝好Docker之后,我們可以在設置里面修改一下Docker的更新源,以便后面安裝Dify時速度更快。
安裝Dify
可以去Dify的github上面下載Dify的開源版本 https://github.com/langgenius/dify,clone項目到本地,docker啟動。
克隆項目到本地后,進入到 dify-main\docker 目錄下,啟動cmd窗口。執行 docker compose up -d 命令。然后就耐心等待下載安裝。
因為安裝Dify涉及到的鏡像比較多,跟網絡關系很大。如果中途中斷失敗了,可以多次嘗試安裝。安裝成功之后,會有Success的提示。
具體的安裝過程可以參考Dify的說明文檔 https://docs.dify.ai/zh-hans/getting-started/install-self-hosted/docker-compose。
啟動Docker容器中的Dify
默認Dify應用的端口是80,如果說有其他應用占用了這個端口號,那么就需要先修改。在Dify的Docker目錄下,docker-compose.yaml配置文件中找到ports節點,將其端口號由80修改為8080或者其它端口。
啟動Docker之后,我們就可以在瀏覽器中打開Dify了。如我的地址 http://127.0.0.1:8080/apps 。
Dify中配置本地大模型
- 配置文件啟用OLLAMA自定義模型
在配置本地大模型之前,先要配置一下Dify的Docker目錄下的.env.example文件。
在這個文件的最后添加如下配置:
其中OLLAMA_MODELS是我本地的大模型下載安裝地址。OLLAMA_API_BASE_URL設置的地址,下面Dify中配置Ollama需要用到。 - Dify應用中關聯模型
在 部署離線版DeepSeek 這篇博客中,曾經通過Ollama將大模型下載到本地。這里可以在其基礎上,在Dify中配置Ollama本地模型。這樣我們的應用就可以完全在本地跑,不需要在線調用其他大模型的API,實現本地應用。
如圖中所示,我的Ollama本地下載了DeepSeek的8b和14b模型以及嵌入模型bge-m3,然后在模型設置中選擇對應的模型即可。
PS:如上便完成了Dify在Windows環境下的部署安裝。2025年AI大模型落地了,趕緊玩起來吧 _