deepseek 本地部署
純新手教學,手把手5分鐘帶你在本地部署一個私有的deepseek,再也不用受網絡影響。流暢使用deepseek!!!
如果不想看文章,指路:Deep seek R1本地部署 小白超詳細教程 ,請大家多多投幣,不勝感激~~
Ollama 下載安裝
-
Ollama官網指路:Ollama,下載這步都會就沒必要截圖了,如果下載的慢建議科學上網,多試試。
-
在C盤以外的盤新建一個
Ollama
文件夾存放ollama的安裝位置(為什么要這樣做,因為ollama不能指定安裝位置)。 -
注意下載完成后不要立刻點擊安裝,將下載的可行性程序(OllamaSetup.exe)在文件資源管理器中打開,輸入cmd
-
在命令行中執行如下命令:
ollamasetup.exe /DIR=+文件夾路徑
,這個文件夾的路徑就是你創建的Ollama
文件夾。
-
指定位置安裝后如下圖所示:
-
現在要修改模型默認下載的位置(因為模型下載也是默認在C盤的,但是一般模型體積會很大,C盤吃不消的),在C盤以外的盤新建一個
ollamaimagers
文件夾存放ollama的安裝位置。 -
編輯系統環境變量:
OLLAMA_MODELS
,完成后,保存重啟電腦,讓環境變量生效。
小結:現在已經完成了Ollama指定位置的安裝,和模型指定位置的安裝
模型下載
-
模型網址鏈接:deepseek-r1
-
根據你自己的電腦配置,選擇合適的模型進行下載,筆者這里使用的為1.5b模型,在命令行窗口中輸入:
ollama run deepseek-r1:1.5b
-
中途如果下載很慢,可以按
ctrl + c
結束下載,再運行模型下載的命令,會接著繼續下載。 -
成功下載后,即可與本地deepseek對話。
附件
這是由deepseek推薦的各個模型的顯卡配置:
模型規模 | 推薦顯存(推理) | 推薦顯卡(推理) | 推薦顯存(訓練) | 推薦顯卡(訓練) | 備注 |
---|---|---|---|---|---|
1.5B | ≥4GB | GTX 1660 (6GB)、RTX 3050 (8GB) | ≥8GB | RTX 3060 (12GB)、RTX 2080 Ti (11GB) | FP16推理,訓練需額外顯存。 |
7B | ≥16GB | RTX 3090 (24GB)、RTX 4090 (24GB) | ≥24GB | 單卡A100 40GB、雙RTX 3090(并行) | 無量化時需24GB顯存;4位量化可降至約8GB,單卡RTX 3090即可推理。 |
8B | ≥16GB | RTX 3090 (24GB)、Tesla T4 (16GB) | ≥32GB | 雙A100 40GB(并行) | 需注意T4可能因帶寬不足導致速度較慢。 |
14B | ≥28GB | 單卡A100 40GB、雙RTX 3090(并行) | ≥56GB | 雙A100 40GB(并行)或四RTX 3090 | 4位量化推理需約14GB,單卡RTX 3090可運行。 |
32B | ≥64GB(FP16) | 雙A100 40GB(并行)、四RTX 3090 | ≥128GB | 四A100 80GB集群、多卡H100 | 需模型并行;4位量化后顯存降至約32GB,單A100 40GB可推理。 |
70B | ≥140GB(FP16) | 四A100 40GB(并行) | ≥280GB | 專業集群(如8xA100 80GB) | 4位量化后顯存約35GB,單A100 40GB可推理,但需優化庫(如vLLM)。 |
671B | ≥1.3TB(FP16) | 大規模分布式系統(如TPU Pod) | ≥2.6TB | 超算集群(數百張A100/H100) | 僅限企業和研究機構;需分布式訓練框架(如DeepSpeed、Megatron-LM)。 |
Ollama 命令
- 輸入
ollama help
,即可看到命令幫助,這里最常用的命令就是:ollama list
和ollama run
ollama list
:查看下載的所有模型ollama run
:運行你下再的模型,命令后面跟模型的名稱,如:ollama run deepseek-r1:1.5b
,即可重新開始對話。ollama rm
:刪除模型,命令后面跟模型的名稱,如:ollama rm deepseek-r1:1.5b
。