快速搭建 OLLAMA + DeepSeek 模型并對接 Cherry Studio
本文將指導您在基于 GPU 的 Ubuntu 服務器上快速搭建 OLLAMA,部署 DeepSeek 模型,并接入 Cherry Studio 進行使用。
環境說明
- GPU 服務器: GeForce RTX 2080 Ti, 16 核, 64G 內存
- 系統: Ubuntu 24.04.1 UEFI 64bit
- 系統盤: 150 GB
- OLLAMA 版本: 0.5.11
- DeepSeek 模型:
deepseek-r1:7b
,deepseek-r1:1.5b
- Cherry Studio 版本: 0.9.24
步驟 1: 安裝 OLLAMA
-
1.下載并安裝 OLLAMA
#Download and extract the package: curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz
-
2.創建模型存儲目錄
sudo mkdir -p /data/ollama/models sudo chown -R $USER:$USER /data/ollama/models
-
3.創建 Systemd 服務文件
sudo tee /etc/systemd/system/ollama.service <<EOF [Unit] Description=OLLAMA Service After=network-online.target[Service] ExecStart=/usr/bin/ollama serve User=root Group=root Restart=alwaysEnvironment="OLLAMA_MODELS=/data/ollama/models" Environment="OLLAMA_HOST=0.0.0.0:11434"[Install] WantedBy=multi-user.target EOF
-
4.啟動 OLLAMA 服務
sudo systemctl daemon-reload sudo systemctl enable ollama sudo systemctl start ollama
步驟 2: 加載 DeePSeek 模型
-
加載 DeePSeek 模型
ollama pull deepseek-r1:7b ollama pull deepseek-r1:1.5b
-
驗證模型
ollama list
步驟 3: 對接 Cherry Studio
-
安裝 Cherry Studio
- 下載并安裝 Cherry Studio 0.9.24 版本。
-
配置模型
- 打開 Cherry Studio,進入 模型管理 頁面。
- 輸入 OLLAMA 服務地址:
http://192.168.100.2:11434
。 - 選擇
deepseek-r1:7b
或deepseek-r1:1.5b
模型。
-
開始使用
- 返回 Cherry Studio 主界面,即可與模型進行交互。
總結
通過以上步驟,您已成功在 GPU 服務器上部署 OLLAMA,加載 DeePSeek 模型,并接入 Cherry Studio。