一、下載?Ollama
本地化部署需要用到?Ollama,它能支持很多大模型。官方網站:https://ollama.com/
點擊 Download 即可,支持macOS,Linux 和 Windows;我下載的是 mac 版本,要求macOS 11 Big Sur or later,Ollama是跳轉到github去下載的,如果下載不了可能要借助科學上網。
下載的是個壓縮包,直接雙擊就可以解壓出Ollama.app,點擊運行即可安裝
安裝成功之后,ollama會在后臺運行,啟動命令行,輸入ollama
出現以上頁面即表示安裝成功
二、下載DeepSeek-R1
還是進入ollama.com的頁面,點擊Models
下載deepseek-r1,
deepseek-r1有很多個版本,1.5b,7b,8b,14b,32b,70b,671b,分別代表模型不同的參數數量。
- B = Billion(十億參數):表示模型的參數量級,直接影響計算復雜度和顯存占用。
- DeepSeek 1.5B:15億參數(小型模型,適合輕量級任務)
- DeepSeek 7B:70億參數(主流規模,平衡性能與資源)
- DeepSeek 70B:700億參數(高性能需求場景)
- DeepSeek 671B:6710億參數(超大規模,對標PaLM/GPT-4)
每個版本對應所需的內存大小都不一樣,如果你電腦運行內存為8G那可以下載1.5b,7b,8b的蒸餾后的模型;如果你電腦運行內存為16G那可以下載14b的蒸餾后的模型,我這里選擇14b的模型。
使用ollama run deepseek-r1:14b 進行下載,在命令行里面輸入:
ollama run deepseek-r1:14b
使用ollama list 查看是否成功下載了模型
輸入ollama run deepseek-r1:14b運行模型,啟動成功后,就可以輸入我們想問的問題,模型首先會進行深度思考(也就是think標簽包含的地方),思考結束后會反饋我們問題的結果。在>>>之后輸入想要咨詢的 問題,模型回答的速度取決電腦的性能。
使用快捷鍵Ctrl + d 或者在>>>之后輸入?/bye即可退出對話模式。
## 刪除模型
ollama rm deepseek-r1:14b
## 停止模型
ollama stop deepseek-r1:14b
三、web頁面的訪問
我們通過ollama下載模型后,可以在命令行使用deepseek了,但是命令行的形式還是有些不友好,我們可以借助chatBox,或者Open-WebUI,只要接入ollama的Api就可以使用了。
1、Open-WebUI
Open WebUI是一個可擴展、功能豐富、用戶友好的自托管AI平臺,旨在完全離線運行。它支持各種LLM運行程序,如Ollama和OpenAI兼容的API,內置RAG推理引擎,使其成為一個強大的AI部署解決方案,本地需要安裝Python3(版本3.11~3.13以下)。
安裝 Open-WebUI需要使用pip進行安裝,安裝需要一定時間
pip install open-webui
### 如網絡太差,可以使用國內的鏡像下載
pip install open-webui -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host mirrors.aliyun.com
如果 pip 版本較低,可以更新下
python3 -m pip install --upgrade pip
使用如下命令啟動open-webui服務,啟動需要一定時間
open-webui serve
后使用瀏覽器輸入http://127.0.0.1:8080/登錄服務,注意端口的占用沖突,頁面如下:
點擊開始使用,第一次使用需要注冊用戶名、郵件以及密碼,這都是存在本地的,可以放心填寫。
注冊完畢后,如果本地已經運行了deepseek-r1,它可以自動識別本地已經安裝的deepseek r1大模型,
在對話框里面輸入內容,即可與deepseek-r1展開對話
2、ChatBox
Chatbox AI 是一款 AI 客戶端應用和智能助手,支持眾多先進的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和網頁版上使用。
我這里下載的mac版本,成功安裝啟動后,點擊左下角的設置
模型提供方選擇Ollama API
模型選擇本地部署好的deepseek-r1:14b,點擊保存,即可以開始對話
最后:蒸餾模型不同規格的選擇,需要結合自己電腦的配置來選擇,不合適的模型會導致電腦過載,對話回答的速度和效果問題都會很差。我電腦內存16GB,以為14b能扛得住,結果安裝之后,對話巨慢!后面安裝了8b,運行起來速度就快多了,但是通過頁面的返回速度會變慢。