下載 Ollama 訪問 Ollama 下載頁,下載對應系統 Ollama 客戶端。或者參考文章【實戰AI】macbook M1 本地ollama運行deepseek_m1 max可以跑deepseek嗎-CSDN博客
dify?
開源的 LLM 應用開發平臺。提供從 Agent 構建到 AI workflow 編排、RAG 檢索、模型管理等能力,輕松構建和運營生成式 AI 原生應用。
https://cloud.dify.ai/app
前提條件是,本地安裝好了docker?
?1. github 源碼下載:
git clone https://github.com/langgenius/dify.git
2. 配置dify
執行
cd /dify/docker
cp .env.example .env
3.啟動
docker compose up -d
自行注冊登錄即可;
訪問
在你的瀏覽里里輸入http://localhost,就能看到這樣的界面;
第一次登錄,設置一下管理員賬號。完成設置后,瀏覽器會自動跳轉到登錄頁面,輸入用戶名和密碼就能進入Dify 工作臺。
配置本地模型
可以將自己本地的模型配置到dify中使用,也可以配置其他在線大模型,需要申請秘鑰進行配置;
這里記錄一下,我將我前兩篇文章搭建的本地deepseek-r1:14b 模型配置的過程;
點擊右上角用戶名 》 設置 》 模型供應商
往下翻,找到ollama?
-
模型名稱: 可以執行 ollma list 查看
-
基礎 URL:
http://<your-ollama-endpoint-domain>:11434
若 Dify 為 Docker 部署,建議填寫局域網 IP 地址,例如:
http://192.168.1.100:11434
或 Docker 容器的內部 IP 地址,例如:http://host.docker.internal:11434
。若為本地源碼部署,可填寫
http://localhost:11434
。
在 Mac 上設置環境變量
如果 Ollama
作為 macOS
應用程序運行,則應使用以下命令設置環境變量 launchctl
:
-
通過調用
Copylaunchctl setenv
設置環境變量:launchctl setenv OLLAMA_HOST "0.0.0.0"
-
重啟 Ollama 應用程序。
-
模型類型:
對話
-
模型上下文長度:
4096
模型的最大上下文長度,若不清楚可填寫默認值 4096。
-
最大 token 上限:
4096
模型返回內容的最大 token 數量,若模型無特別說明,則可與模型上下文長度保持一致。
-
是否支持 Vision:
是
當模型支持圖片理解(多模態)勾選此項,如
llava
。
點擊 "保存" 校驗無誤后即可在應用中使用該模型。