Linux(CentOS)+FinalShell+Ollama+遠程訪問,本地部署deepseek
自備CentOS服務器,并且已經使用FinalShell連接到服務器
一、準備工作
1.更新服務器?
apt-get update-y
2.下載Ollama
curl -fsSL https://ollama.com/install.sh | sh
3.測試ollama是否安裝完成
ollama
4.按照正常的命令下載Ollama模型。根據個人服務器硬件配置
ollama run deepseek-r1:14b
二、放行端口
#放行端口
ufw allow 11434#查看端口狀態
ufw status
三、設置環境變量:
1.編輯ollama.service
vim /etc/systemd/system/ollama.service
2.在[Service]部分,Environment下面添加:
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"
使用箭頭移動光標到Environment下方,
鍵盤[i]鍵,進入編輯模式(左下角顯示INSERT代表進入編輯模式)
輸入以上兩個配置
按[ESC]鍵,退出編輯模式
輸入:wq保存并退出
3.重新加載systemd并重啟Ollama
systemctl deamon-reload
systemctl restart ollama
查看Ollama運行狀態
systemctl status ollama
按【q】退出
查看顯存占用狀態
#英偉達
nvidia-smi#其他軟件
apt-get install nvtop -y
nvtop
四、使用Ollama
使用PageAssist、ChatBox、CherryStudio、AnythingLLM等方式連接即可