之前寫過一篇windows下部署deepseekR1的文章,有小伙伴反饋提供一篇linux下部署DeepSeek r1 模型訓練教程,在 Linux 環境下,我找了足夠的相關資料,花費了一些時間,我成功部署了 DeepSeek R1 模型訓練任務,結合了 Ollama、DeepSeekR1 和 RAGFlow 三大工具,實現了高效的模型訓練與推理。
小貼士:AI學習資料pdf文檔下載 點擊下載AI學習資料
一、安裝ollama ?具
介紹
Ollama是一個開源軟件,主要用于在本地電腦設備上下載、部署和使用大模型(LLM)。它提供了豐富的LLM庫,如llama、qwen、mistral以及DeepSeek R1等,并且支持不同參數規模的模型,以適配不同性能的電腦設備?。Ollama雖然支持直接使用LLM,但僅能在命令行中進行對話,交互功能有限,因此需要配合其他工具使用?。通俗理解為用于方便本地部署大模型使用的工具,實現離線使用和數據得到安全保護。
安裝
# curl下載ollama?進制?件
$ sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ol
lama
$ sudo chmod +x /usr/bin/ollama
# github下載:https://github.com/ollama/ollama/
$ tar -zxvf ollama-linux-amd64.tgz -C /usr
$ ollama --help
$ ollama --version
或者直接下載腳本安裝
$ curl -fsSL https://ollama.com/install.sh | sh
在Service中增加下?兩?
$ vi /etc/systemd/system/ollama.service
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
然后重啟ollama服務
$ systemctl daemon-reload
$ systemctl restart ollama
驗證服務是否開啟,11434是核?端?,必須開啟。
netstat -nultp |grep 11434
輸入自己本地電腦的IP+11434端口訪問
第?步:將Ollama添加為啟動服務
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama
寫?個啟動腳本
$ sudo vim /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=default.target$ chmod +x /etc/systemd/system/ollama.service
ollama.service配置?件中注意事項:
ollama默認只?持localhost訪問,如果想要開放外?訪問,可以在[service]下?添加?個環境變量
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
默認情況下,通過ollama部署的?模型是阻塞的,為了提??模型的并發性,
可以通過添加OLLAMA_NUM_PARALLEL來配置同時并發的數量
[Service]
Environment="OLLAMA_NUM_PARALLEL=4"
4表示同時運?4個并發線程數,默認情況下,ollama會默認保持5分鐘的活躍狀態,超過五分鐘沒有操作,
服務會?動退出,為了避免在調??模型服務時的冷啟動,可以通過環境變量
OLLAMA_KEEP_ALIVE來設置活躍狀態的時間
[Service]
Environment="OLLAMA_KEEP_ALIVE=-1"
# -1表示?直處于連接狀態。
第四步:啟動服務
$ sudo systemctl daemon-reload
$ sudo systemctl enable ollama
注意:每次修改配置?件后,需要關停ollama服務,重啟后才?效.
關停命令
$ sudo systemctl stop ollama
啟動:
$ sudo systemctl start ollama
安裝 deepseek R1
# deepseek 版本信息查看此地址 https://ollama.com/library/deepseek-r1
$ ollama run deepseek-r1:14b
二、部署?個客戶端?具
下面客戶端選擇任意一個客戶端安裝
安裝配置 Cherry Studio
介紹
Cherry Studio 是一個用于創建和部署桌面應用程序的開發框架,特別適用于開發跨平臺應用。它通過提供簡潔易用的工具和可視化界面,使開發者能夠以較少的代碼量快速構建具有高性能和美觀界面的應用程序。Cherry Studio 結合了強大的圖形界面設計功能和模塊化架構,允許開發者靈活地定制界面布局和交互邏輯。
該框架支持多種主流操作系統,如 Windows、macOS 和 Linux,使得開發者能夠創建具有廣泛兼容性的桌面應用。此外,Cherry Studio 提供了豐富的插件和擴展功能,支持自定義組件、第三方庫的集成,以及與后端服務的連接。其目標是簡化開發流程,提升應用開發的效率,尤其適合那些希望快速構建用戶友好的桌面應用的開發者。通過 Cherry Studio,開發者能夠更輕松地專注于應用邏輯的實現,而無需過多關心平臺兼容性和底層細節。
安裝
下載linux 安裝包 下載官?:https://cherry-ai.com/
雙擊exe文件安裝完成,從設置??找到模型服務, ollama 的模型為 deepseek-r1
設置默認模型
打開一個聊天窗口進行測試
安裝配置chatbox 客戶端
介紹
Chatbox 是一種基于聊天界面的應用程序或工具,旨在通過自動化的方式與用戶進行互動,通常用于客戶支持、信息查詢或作為智能助手。它可以通過文本、語音或其他多種形式與用戶進行交流。Chatbox 通常結合自然語言處理(NLP)技術,使得它能夠理解和生成自然語言,從而提供智能響應。現代的聊天框架如 ChatGPT 或 Dialogflow 使得 Chatbox 更加靈活和強大,可以實現復雜的對話流程和多輪對話。
Chatbox 的應用場景非常廣泛,涵蓋了電子商務、在線教育、客戶服務、健康咨詢等領域。它能夠提供即時響應,幫助企業提升客戶體驗并減少人工客服壓力。同時,Chatbox 也能通過不斷學習和優化,逐步提高對話質量,提供更貼近用戶需求的服務。隨著技術的進步,Chatbox 正變得越來越智能,能夠處理更為復雜的問題,并在多個平臺上無縫集成,滿足不同用戶的需求。
安裝
下載linux chatbox安裝包?件,地址: https://chatboxai.app/zh
配置ollama 模型地址,本機電腦IP+11434端口,選擇deepseek你的模型
新建對話,按照圖中的配置選擇模型
保存就可以測試對話了
安裝配置Open-WebUI
介紹
Open-WebUI 是一個開源項目,旨在提供一個易于使用、可定制的Web界面,用于與各種AI和機器學習模型進行交互。該項目的目標是讓用戶能夠通過直觀的圖形界面,輕松管理和運行復雜的機器學習任務,而無需深入編寫代碼。Open-WebUI 支持多個主流的AI模型,包括文本生成、圖像生成、翻譯、語音識別等,允許用戶通過簡單的操作配置和調用這些模型。
其特點包括高度的可擴展性,支持插件化架構,可以根據需求擴展新功能;界面簡潔且響應式,適應不同設備的屏幕;并且提供了集成的日志系統和任務管理工具,幫助用戶更好地監控和管理后臺運行的模型任務。通過 Open-WebUI,開發者和研究人員可以快速搭建自己的AI應用,提升開發效率并降低入門門檻。該項目的開源性質也促進了社區的活躍參與,使其能夠不斷得到改進和優化。
安裝
使?docker ?式安裝客戶端?具
$ docker pull ghcr.mirrorify.net/open-webui/open-webui:main
$ docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://10.1.192.54:11434 --privileged=true -v open-webui:/app/backend/data --name open-webui --restart always ghcr.mirrorify.net/open-webui/open-webui:main
打開open-webui界面,自己電腦的ip地址+3000端口
首次打開需要注冊登錄,按提示注冊就好,然后登錄進去開始對話
三、RAGFlow的安裝和部署
介紹
RAGFlow 是一個開源的框架,旨在簡化和優化信息檢索與生成的工作流程。它基于檢索增強生成(RAG,Retrieval-Augmented Generation)的思想,將信息檢索與文本生成結合起來,以提高生成模型的準確性和效率。RAGFlow 通過引入外部數據源(如知識庫或文檔庫),在生成過程中動態地獲取相關信息,彌補傳統生成模型僅依賴訓練數據的局限性。
該框架的核心優勢在于它的靈活性與擴展性,可以與現有的語言模型(如 GPT、BERT 等)結合使用,支持多種自定義配置與優化策略,適應不同的業務需求。RAGFlow 的設計理念是簡化復雜的工作流程,讓開發者能夠高效構建基于檢索增強生成的應用場景,如問答系統、內容生成、數據分析等。它的開放性和模塊化架構使得其在不同領域的適用性更強。
安裝
部署的環境前置條件
CPU >= 4 核
內存 >= 16 GB
硬盤 >= 50 GB
Docker版本 >= 24.0.0 & Docker Compose >= v2.26.1
1.安裝
# 克隆倉庫
$ git clone https://github.com/infiniflow/ragflow.git
$ cd ragflow-main/docker/# 如果你遇到 Docker 鏡像拉不下來的問題,可以在 #docker/.env ?件內根據變量
# RAGFLOW_IMAGE 的注釋提示選擇華為云或者阿?云的相應鏡像。
# 華為云鏡像名:swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow
# 阿?云鏡像名:registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow
$ vim .envRAGFLOW_IMAGE=registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow:v0.16.0# 構建:
$ docker compose -f docker-compose.yml up -d
查看容器服務運行狀態
$ docker ps -a
查看服務日志
docker logs -f ragflow-server
訪問RAGFlow界面,http://本地電腦ip
我這里地址是:http://192.168.2.36
注冊一個賬號,按照提示操作即可
添加自己的deepseek模型(自己電腦ip+11434端口)
設置系統模型
新建知識庫
新增文件,代表數據源,對數據進行訓練,提供AI使用
點擊解析一下,進行解析文件里面的內容數據,讓AI學習
解析成功
點擊聊天功能—》新建助理
根據文檔存在的內容提問,你會發現AI會根據你上傳文檔的數據,給出你要的答案。