deepseek 本地部署

deepseek 本地部署

純新手教學,手把手5分鐘帶你在本地部署一個私有的deepseek,再也不用受網絡影響。流暢使用deepseek!!!
如果不想看文章,指路:Deep seek R1本地部署 小白超詳細教程 ,請大家多多投幣,不勝感激~~

Ollama 下載安裝

  1. Ollama官網指路:Ollama,下載這步都會就沒必要截圖了,如果下載的慢建議科學上網,多試試。

  2. 在C盤以外的盤新建一個Ollama 文件夾存放ollama的安裝位置(為什么要這樣做,因為ollama不能指定安裝位置)。

  3. 注意下載完成后不要立刻點擊安裝,將下載的可行性程序(OllamaSetup.exe)在文件資源管理器中打開,輸入cmd
    在這里插入圖片描述

  4. 在命令行中執行如下命令:ollamasetup.exe /DIR=+文件夾路徑,這個文件夾的路徑就是你創建的Ollama文件夾。
    在這里插入圖片描述

  5. 指定位置安裝后如下圖所示:

    在這里插入圖片描述

  6. 現在要修改模型默認下載的位置(因為模型下載也是默認在C盤的,但是一般模型體積會很大,C盤吃不消的),在C盤以外的盤新建一個ollamaimagers 文件夾存放ollama的安裝位置。

  7. 編輯系統環境變量:OLLAMA_MODELS,完成后,保存重啟電腦,讓環境變量生效。

    在這里插入圖片描述

小結:現在已經完成了Ollama指定位置的安裝,和模型指定位置的安裝

模型下載

  1. 模型網址鏈接:deepseek-r1

  2. 根據你自己的電腦配置,選擇合適的模型進行下載,筆者這里使用的為1.5b模型,在命令行窗口中輸入:ollama run deepseek-r1:1.5b

    在這里插入圖片描述

  3. 中途如果下載很慢,可以按ctrl + c結束下載,再運行模型下載的命令,會接著繼續下載。

    在這里插入圖片描述

  4. 成功下載后,即可與本地deepseek對話。

附件

這是由deepseek推薦的各個模型的顯卡配置:

模型規模推薦顯存(推理)推薦顯卡(推理)推薦顯存(訓練)推薦顯卡(訓練)備注
1.5B≥4GBGTX 1660 (6GB)、RTX 3050 (8GB)≥8GBRTX 3060 (12GB)、RTX 2080 Ti (11GB)FP16推理,訓練需額外顯存。
7B≥16GBRTX 3090 (24GB)、RTX 4090 (24GB)≥24GB單卡A100 40GB、雙RTX 3090(并行)無量化時需24GB顯存;4位量化可降至約8GB,單卡RTX 3090即可推理。
8B≥16GBRTX 3090 (24GB)、Tesla T4 (16GB)≥32GB雙A100 40GB(并行)需注意T4可能因帶寬不足導致速度較慢。
14B≥28GB單卡A100 40GB、雙RTX 3090(并行)≥56GB雙A100 40GB(并行)或四RTX 30904位量化推理需約14GB,單卡RTX 3090可運行。
32B≥64GB(FP16)雙A100 40GB(并行)、四RTX 3090≥128GB四A100 80GB集群、多卡H100需模型并行;4位量化后顯存降至約32GB,單A100 40GB可推理。
70B≥140GB(FP16)四A100 40GB(并行)≥280GB專業集群(如8xA100 80GB)4位量化后顯存約35GB,單A100 40GB可推理,但需優化庫(如vLLM)。
671B≥1.3TB(FP16)大規模分布式系統(如TPU Pod)≥2.6TB超算集群(數百張A100/H100)僅限企業和研究機構;需分布式訓練框架(如DeepSpeed、Megatron-LM)。

Ollama 命令

  1. 輸入ollama help,即可看到命令幫助,這里最常用的命令就是:ollama listollama run
  2. ollama list:查看下載的所有模型
  3. ollama run:運行你下再的模型,命令后面跟模型的名稱,如:ollama run deepseek-r1:1.5b,即可重新開始對話。
  4. ollama rm:刪除模型,命令后面跟模型的名稱,如:ollama rm deepseek-r1:1.5b

在這里插入圖片描述

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/72703.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/72703.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/72703.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

HTML學習筆記(全)

基本結構 <!DOCTYPE html> <html> <head><meta charset"UTF-8"><title></title> </head> <body></body> </html> 基本標簽元素 標題&#xff08;heading&#xff09; <h1>一級標題</h1> &…

騰訊云對象存儲服務(COS)

騰訊云對象存儲服務&#xff08;COS&#xff09; 安全、可擴展、低成本的云存儲解決方案 騰訊云 對象存儲服務&#xff08;COS&#xff0c;Cloud Object Storage&#xff09; 是一種高可靠、高性能、可擴展的云存儲服務&#xff0c;專為海量非結構化數據&#xff08;如圖片、…

從ETL到數倉分層:大數據處理的“金字塔”構建之道

在當今數據驅動的時代&#xff0c;大數據處理已成為企業決策和業務優化的核心。而ETL&#xff08;Extract, Transform, Load&#xff09;作為數據處理的基石&#xff0c;其背后的數倉分層理念更是決定了數據處理的效率與質量。本文將深入探討ETL工作中的數倉分層理念&#xff0…

數字孿生對于新基建的價值淺析,算是拋磚引玉。

數字孿生&#xff08;Digital Twin&#xff09;作為一項融合物理世界與數字世界的關鍵技術&#xff0c;在新基建中扮演著虛實協同、智能決策、全生命周期管理的核心角色&#xff0c;其價值貫穿于基礎設施的設計、建設、運維到優化全流程。 一、核心價值&#xff1a;虛實映射與智…

從零開始實現大語言模型(十三):預訓練大語言模型GPTModel

1. 前言 使用梯度下降算法通過下一個token預測任務預訓練大語言模型GPTModel&#xff0c;前向傳播流程每次會輸入一個batch的長度均為context_len的訓練樣本&#xff0c;執行 batch_size context_len \text{batch\_size}\times\text{context\_len} batch_sizecontext_len次下…

QWQ大模型評測榜單

評測榜單說明 在數學推理基準AIME24上&#xff0c;QwQ-32B達到了79.5分&#xff0c;幾乎與DeepSeek-R1-617B的79.8分持平&#xff0c;遠超OpenAI o1-mini的63.6分&#xff0c;及相同尺寸的R1蒸餾模型。 在編程能力方面&#xff0c;QwQ-32B 在LiveCodeBench上獲得了63.4分&…

bash: uwsgi: 未找到命令

針對你提出的“bash: uwsgi: command not found”問題&#xff0c;以下是一些可能的解決方案&#xff0c;請按照步驟逐一排查&#xff1a; ?1、檢查uwsgi命令是否正確?&#xff1a; 確保你輸入的命令是uwsgi&#xff0c;而不是uWSGI或其他變體。 ?2、確認uwsgi是否已安裝?&…

超圖(Hypergraph)

超圖&#xff08;Hypergraph&#xff09;是圖結構學習&#xff08;Graph Learning&#xff09;中的一種擴展形式&#xff0c;它比傳統圖&#xff08;Graph&#xff09;更具表達能力&#xff0c;適用于建模復雜的多元關系。 超圖是一種由 超節點&#xff08;Hypernodes&#xff…

PyTorch中的線性變換:nn.Parameter VS nn.Linear

self.weight nn.Parameter(torch.randn(in_channels, out_channels)) 和 self.linear nn.Linear(in_channels, out_channels) 并不完全一致&#xff0c;盡管它們都可以用于實現線性變換&#xff08;即全連接層&#xff09;&#xff0c;但它們的使用方式和內部實現有所不同。 …

鴻蒙生態日日新,夸克、順豐速運、駕校一點通等多款應用功能更新

3月5日鴻蒙生態日日新PLOG&#xff1a;吉事辦、健康甘肅等政務服務App上架原生鴻蒙應用市場&#xff1b;夸克、順豐速運、駕校一點通等多款應用功能更新。

基于SpringBoot的智慧停車場小程序(源碼+論文+部署教程)

運行環境 ? 前端&#xff1a;小程序 Vue ? 后端&#xff1a;Java ? IDE工具&#xff1a;IDEA&#xff08;可自行選擇&#xff09; HBuilderX 微信開發者工具 ? 技術棧&#xff1a;小程序 SpringBoot Vue MySQL 主要功能 智慧停車場微信小程序主要包含小程序端和…

致同報告:香港財政赤字加劇,擴大稅基與增收迫在眉睫

2月26日香港政府2025-26年度財政預算案&#xff0c;&#xff08;以下簡稱“預算案”&#xff09;發布&#xff0c;香港財政司司長陳茂波提出一系列旨在減少開支并振興香港經濟的措施&#xff0c;以應對日益增長的財政赤字。主要提案包括對所有公務員實施凍薪、針對性稅務寬減措…

在Spring Boot項目中分層架構

常見的分層架構包括以下幾層: 1. Domain 層(領域層) 作用:領域層是業務邏輯的核心,包含與業務相關的實體類、枚舉、值對象等。它是對業務領域的抽象,通常與數據庫表結構直接映射。 主要組件: 實體類(Entity):與數據庫表對應的Java類,通常使用JPA或MyBatis等ORM框架…

實訓任務2.2 使用Wireshark捕獲數據包并分析

目錄 【實訓目標】 【實訓環境】 【實訓內容】 【實訓步驟】 1.啟動WireShark 2. 使用Wireshark捕獲數據包 &#xff08;1&#xff09;選擇網絡接口 &#xff08;2&#xff09;捕獲數據包 &#xff08;1&#xff09;設置Wireshark過濾器并捕獲數據包 &#xff08;2&…

工業自動化核心:BM100 信號隔離器的強大力量

安科瑞 呂夢怡 18706162527 BM100系列信號隔離器可以對電流、電壓等電量參數或溫度、電阻等非電量參數進行快速精確測量&#xff0c;經隔 離轉換成標準的模擬信號輸出。既可以直接與指針表、數顯表相接&#xff0c;也可以與自控儀表&#xff08;如PLC&#xff09;、各種 A/D …

并發編程——累加器

目錄 1 AtomicLong 1.1 核心功能 1.2 實現原理&#xff1a; (1&#xff09;基于 Unsafe 的底層操作 (2) volatile字段的內存可見性 (3&#xff09;CAS 操作與 ABA 問題 1.3 性能分析 1.4 使用場景 2 LongAdder 核心設計原理 1 分段存儲 2 分散更新策略 3.處理高競…

大模型管理工具:LLaMA-Factory

目錄 一、安裝與環境配置 二、?啟動 Web 界面 三、數據準備 四、模型訓練 五、模型評估 七、模型導出 八、API服務部署 LLaMA-Factory 是一個開源的大語言模型&#xff08;LLM&#xff09;微調框架&#xff0c;旨在簡化大規模模型的訓練、微調和部署流程。它支持多種主…

推流項目的ffmpeg配置和流程重點總結一下

ffmpeg的初始化配置&#xff0c;在合成工作都是根據這個ffmpeg的配置來做的&#xff0c;是和成ts流還是flv&#xff0c;是推動遠端還是保存到本地&#xff0c; FFmpeg 的核心數據結構&#xff0c;負責協調編碼、封裝和寫入操作。它相當于推流的“總指揮”。 先來看一下ffmpeg的…

大語言模型從理論到實踐(第二版)-學習筆記(緒論)

大語言模型的基本概念 1.理解語言是人工智能算法獲取知識的前提 2.語言模型的目標就是對自然語言的概率分布建模 3.詞匯表 V 上的語言模型&#xff0c;由函數 P(w1w2 wm) 表示&#xff0c;可以形式化地構建為詞序列 w1w2 wm 的概率分布&#xff0c;表示詞序列 w1w2 wm…

strace工具的交叉編譯

1、下載源碼 git clone https://github.com/strace/strace.git cd strace 2、運行 bootstrap 腳本&#xff08;如果需要&#xff09; 如果源碼中沒有 configure 腳本&#xff0c;運行以下命令生成&#xff1a; ./bootstrap 3. 配置編譯參數 運行 configure 腳本&#xff…