本地快速部署DeepSeek-R1模型——2025新年賀歲

一晃年初六了,春節長假余額馬上歸零了。今天下午在我的電腦上成功部署了DeepSeek-R1模型,抽個時間和大家簡單分享一下過程:

概述

DeepSeek模型

是一家由中國知名量化私募巨頭幻方量化創立的人工智能公司,致力于開發高效、高性能的生成式 AI 模型。自2023年7月成立以來,DeepSeek在短短一年多的時間里取得了顯著的進展,推出了多個引人注目的開源模型,包括 DeepSeek Coder、DeepSeek LLM、DeepSeek-V2、DeepSeek-V3 和 DeepSeek-R1。

成立時間:2023年7月17日

母公司:幻方量化,一家規模超過百億的私募量化基金,為DeepSeek提供了堅實的資金支持。

總部地點:位于中國杭州,注冊地位于杭州市匯金國際大廈。

2024 年 1 月 5 日,發布 DeepSeek LLM,包含 670 億參數,并開源 DeepSeek LLM 7B/67B base 和 DeepSeek LLM 7B/67B chat。
2024 年 5 月 7 日,發布第二代開源 MoE 模型 DeepSeek-V2,總參數 2360 億。
2024 年 6 月 17 日,發布 DeepSeek-Coder-V2,是開源的 MoE 代碼語言模型。
2024 年 12 月 13 日,發布用于高級多模態理解的專家混合視覺語言模型 DeepSeek-VL2。
2024 年 12 月 26 日,DeepSeek-V3 正式發版。
2025 年 1 月 20 日,發布新一代推理模型 DeepSeek-R1,并開源。
2025 年 1 月 26 日:DeepSeek 登頂美區 App Store 免費榜第六,超越 Google Gemini 和 Microsoft Copilot 等產品。R1的預訓練費用只有557.6萬美元,在2048塊英偉達H800 GPU集群上運行55天完成,僅是OpenAI GPT-4o模型訓練成本的不到十分之一
2025 年 1 月 27日,“現象級”崛起,引發美股科技股巨震,應用登頂蘋果中國地區和美國地區應用商店免費APP下載排行榜,在美區下載榜上超越了ChatGPT。美股三大指數集體低開,納指大跌3%,標普500指數跌1.79%,道指跌0.24%。

DeepSeek-R1模型

DeepSeek-R1模型有多個具體版本,主要包括:

  • ?DeepSeek-R1?:這是DeepSeek-R1系列中的核心模型,具有出色的推理能力,在數學、代碼和自然語言推理等任務上表現出色。
  • ?DeepSeek-R1-Zero?:這是一個擁有6710億參數的超大模型,通過大規模強化學習訓練而成,無需監督微調即可表現出色。然而,它也面臨一些挑戰,如無休止重復、可讀性差和語言混合等。
  • ?DeepSeek-R1-Distill系列?:這是從DeepSeek-R1中通過知識蒸餾技術提煉出的一系列小模型,參數規模在15億到700億之間。這些模型旨在保持DeepSeek-R1的推理能力的同時,降低計算和存儲需求。具體來說,這個系列包括1.5B、7B、8B、14B、32B以及70B等不同參數規模的小模型。

此外,DeepSeek還推出了基于視覺的Janus-Pro-7B模型等其他模型,但這不是DeepSeek-R1系列的直接組成部分。這些模型各具特色,適用于不同的應用場景和需求。用戶可以根據自己的實際需求選擇合適的模型版本。

DeepSeek-R1版本差異

這些版本的性能表現各有千秋,具體差異如下:

  • ?DeepSeek-R1-Zero?:該模型通過大規模強化學習訓練而成,無需監督微調。它在某些任務上展現出了驚人的推理能力,但也可能存在可讀性差和語言混合等問題。
  • ?DeepSeek-R1?:在DeepSeek-R1-Zero的基礎上進行了改進,引入了多階段訓練和冷啟動數據。這使得DeepSeek-R1在保持強大推理能力的同時,提高了輸出的可讀性和語言的一致性。它在數學、代碼和自然語言推理等任務上表現出色,與OpenAI的頂尖模型相比也毫不遜色。
  • ?DeepSeek-R1-Distill系列?:這些模型是通過知識蒸餾技術從DeepSeek-R1中提煉出來的輕量級模型。它們在保持一定推理能力的同時,顯著降低了計算和存儲需求。不同參數規模的模型適用于不同的應用場景和硬件配置。例如,32B和70B版本的模型在多項基準測試中表現出色,甚至超越了OpenAI o1-mini的效果。

總的來說,DeepSeek-R1系列模型在性能上展現出了強大的推理能力,同時提供了多種版本的模型以滿足不同用戶的需求。用戶可以根據自己的實際需求選擇合適的模型版本。

Ollama平臺

Ollama是一款開源的人工智能機器學習的工具平臺,特別設計用于簡化大型語言模型的部署和使用流程。以下是Ollama軟件的主要特點和功能:

  1. ?本地部署?:Ollama允許用戶在自己的設備上部署和運行語言模型,而不必完全依賴云端服務。這為用戶提供了更高的數據隱私保護和更快的響應速度。
  2. ?跨平臺支持?:Ollama支持macOS、Linux和Windows操作系統,讓用戶能夠在不同平臺上本地運行大型語言模型。
  3. ?模型管理?:Ollama提供了便捷的模型管理功能,用戶可以輕松地下載、安裝、更新和管理各種語言模型。此外,Ollama還將模型權重、配置和數據整合在一個名為Modelfile的包中,通過優化的Docker容器化技術,用戶只需一條命令就能在本地部署和管理LLM。
  4. ?易用性?:Ollama提供了類似于OpenAI API的簡單接口,用戶可以快速上手并調用模型進行內容生成。同時,它還包含一個類似ChatGPT的聊天界面,允許用戶直接與模型進行交互。
  5. ?靈活性?:除了支持預訓練模型外,Ollama還允許用戶自定義和創建自己的模型,以滿足特定的應用需求。

總的來說,Ollama是一個旨在促進AI民主化的工具,通過簡化部署和使用流程,讓更多人能夠在個人計算機上運行復雜的大型語言模型,從而推進AI技術的廣泛普及和創新應用。

安裝和使用?

一、安裝Ollama

? ? 1.訪問Ollama官網下載:https://ollama.com/download。

? ? 2.點擊下載,選擇適合自己系統的版本(如Windows版)。

? ? ?3.下載完成后進行安裝,按照提示一步步操作即可。安裝成功后,系統托盤會出現Ollama的常駐圖標。

二、下載DeepSeek-R1模型

? ? 1.打開Ollama官網,點擊“Models”按鈕。目前deepseek-r1就排在第1個,有700萬下載量。

? ? 2.找到DeepSeek-R1模型,根據自己的硬件配置選擇合適的版本(如8b、14b、32b等,版本越大對硬件要求越高),GPU大致要求如下:

沒有GPU:1.5B Q8推理 或者 8B Q4推理
4G GPU:8B Q4推理
8G GPU:32B Q4推理 或者 8B Q4推理
16G GPU:32B Q4推理 或者 32B Q8推理
24G GPU: 32B Q8推理 或者 70B Q2推理 ?

?對外部存儲器的要求,即安裝前硬盤C分區的剩余容量如下圖所示:

? ? 3. 安裝命令:?ollama run deepseek-r1:1.5b(安裝其它版本只要替換紅色版本號?)

安裝671b需要404G空間,?別說我的C盤空間放不下,再說也沒有獨立顯卡,16GB的運行內存,你可對比一下,以下配置只夠安裝和運行14b參數的那個模型,大約占用9.0GB硬盤空間。

三、安裝過程

Welcome to Ollama!

Run your first model:

? ? ? ? ollama run llama3.2

PS C:\Windows\System32> ollama run deepseek-r1:1.5b
pulling manifest
pulling aabd4debf0c8... 100% ▕████████████████████████████████████████████████████████▏ 1.1 GB
pulling 369ca498f347... 100% ▕████████████████████████████████████████████████████████▏ ?387 B
pulling 6e4c38e1172f... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████████████████████████████████████████████▏ ?148 B
pulling a85fe2a2e58e... 100% ▕████████████████████████████████████████████████████████▏ ?487 B
verifying sha256 digest
writing manifest
success

>>> /?
Available Commands:
? /set ? ? ? ? ? ?Set session variables
? /show ? ? ? ? ? Show model information
? /load <model> ? Load a session or model
? /save <model> ? Save your current session
? /clear ? ? ? ? ?Clear session context
? /bye ? ? ? ? ? ?Exit
? /?, /help ? ? ? Help for a command
? /? shortcuts ? ?Help for keyboard shortcuts

Use """ to begin a multi-line message.

>>> /show
Available Commands:
? /show info ? ? ? ? Show details for this model
? /show license ? ? ?Show model license
? /show modelfile ? ?Show Modelfile for this model
? /show parameters ? Show parameters for this model
? /show system ? ? ? Show system message
? /show template ? ? Show prompt template
>>> /show info
? Model
? ? architecture ? ? ? ?qwen2
? ? parameters ? ? ? ? ?1.8B
? ? context length ? ? ?131072
? ? embedding length ? ?1536
? ? quantization ? ? ? ?Q4_K_M

? Parameters
? ? stop ? ?"<|begin▁of▁sentence|>"
? ? stop ? ?"<|end▁of▁sentence|>"
? ? stop ? ?"<|User|>"
? ? stop ? ?"<|Assistant|>"

? License
? ? MIT License
? ? Copyright (c) 2023 DeepSeek

經實測,deepseek對內存也有要求,運行32b至少得22.3GB有效內存;運行70b至少得45.4GB有效內存。

C:\Users\Administrator>ollama run deepseek-r1:1.5b
>>> /bye

C:\Users\Administrator>ollama run deepseek-r1:32b
Error: model requires more system memory (22.3 GiB) than is available (11.9 GiB)

C:\Users\Administrator>ollama run deepseek-r1:70b
Error: model requires more system memory (45.4 GiB) than is available (17.7 GiB)

安裝時,ollama并不檢測內存是否夠用,無法運行就手動刪除以釋放占用空間:

C:\Users\Administrator>ollama rm deepseek-r1:70b
deleted 'deepseek-r1:70b'

C:\Users\Administrator>ollama rm deepseek-r1:32b

deleted 'deepseek-r1:32b'

C:\Users\Administrator>ollama rm deepseek-r1:16b
Error: model 'deepseek-r1:16b' not found

四、使用過程

隨便問了幾個問題:

>>> 1+2+3+...+100=?
<think></think>當然可以!這個問題是一個經典的等差數列求和問題。等差數列的求和公式是:\[ S = \frac{n(a_1 + a_n)}{2} \]其中:
- \( n \) 是項數
- \( a_1 \) 是首項
- \( a_n \) 是末項在這個問題中,\( a_1 = 1 \),\( a_n = 100 \),而項數 \( n = 100 \)。代入公式:\[ S = \frac{100(1 + 100)}{2} = \frac{100 \times 101}{2} = \frac{10100}{2} = 5050 \]所以,\( 1 + 2 + 3 + \ldots + 100 = 5050 \)。>>> 用python寫一個計算pi精確到小數點后20位的程序
<think>
嗯,用戶想要我寫一個Python程序來計算π的小數點后20位的值。讓我先想想,這應該怎么做到呢?首先,我知道π是一個無限不循環的小數,手動計算起來比較麻煩。不過用戶只要求精確到小數點后20位,或許可以使用一些數學公
式或算法來快速逼近這個數值。我想到的是利用萊布尼茲公式,也就是π = 4*(1 - 1/3 + 1/5 - 1/7 + ...)。雖然收斂速度比較慢,但或許可以用很多項之后就能
得到足夠的精度了。但是20位的計算量有點大,需要足夠多的項數。不過用戶可能希望的是一個簡單易懂且快速計算的方法,而不是復雜的算法。因此,我考慮使用更高效的公式,比如高斯-勒讓德算
法或者蒙特卡洛方法。但蒙特卡洛方法可能比較復雜,不適用于這個任務。再想想,有沒有更簡便的方法?或許可以利用計算器或者預計算π的小數部分,并截斷到20位。不過用戶似乎需要一個自定義的
Python程序來實現這一點,所以我只能自己設計代碼。好,我決定使用萊布尼茲公式,因為它簡單且容易實現。接下來,我會編寫一個循環,逐項計算并累加到結果中,直到達到足夠準確
的小數點后20位。在編碼時,需要注意的是精度的問題,因為每增加一項,誤差會減小,但需要控制好誤差的范圍,以確保最后的結果是正確的。同時
,也需要避免數據溢出或者計算錯誤。讓我開始寫代碼吧:
</think>好的!以下是一個使用萊布尼茲公式來計算π的小數點后20位的Python程序:```python
n = 1000000  # 運行足夠多的項以達到足夠的精度
pi = 0.0
sign = 1  # 符號交替變化,開始為正for i in range(1, n*2, 2):term = sign * (4 / (2*i - 1))pi += termsign *= -1# 截斷誤差到小數點后20位
pi = round(pi, 20)print(f"π ≈ {pi:.20f}")
```### 代碼解釋:
1. **初始化變量**:`n` 表示運行項的數量(默認值為1,000,000),`pi` 是結果初始值為0,`sign` 是符號交替變化的標志。
2. **循環計算**:使用 `range(1, n*2, 2)` 循環變量從1到2n-1步長為2。每次迭代時:- 計算項的值 `term = sign * (4 / (2*i - 1))`- 將 `term` 加到 `pi` 中- 更新符號 `sign *= -1`
3. **截斷誤差**:使用 `round(pi, 20)` 截斷結果為小數點后20位。
4. **輸出結果**:打印出計算結果。### 輸出結果:
```
π ≈ 3.14159265358979323846
```這個程序使用了萊布尼茲公式,每增加一項,誤差會減小。通過運行足夠多的項(如1,000,000),可以得到π的小數點后20位的結
果。如果你希望使用更高效的方法或不同的算法,我可以提供其他建議!>>> 其它方法呢
<think>好的!以下是一個使用蒙特卡洛方法來計算π的小數點后20位的Python程序:```python
import randomdef estimate_pi(n):# n是總樣本數量inside = 0for _ in range(n):x = random.uniform(0, 1)y = random.uniform(0, 1)if x**2 + y**2 <= 1:inside += 1pi = 4 * (inside / n)return pi# 設定樣本數量足夠大以提高精度
n = 10**6
pi = estimate_pi(n)print(f"π ≈ {pi:.20f}")
```### 代碼解釋:
1. **初始化函數**:`estimate_pi(n)` 函數計算估計值。
2. **生成隨機數**:每次運行時,使用 `random.uniform(0, 1)` 生成兩個均勻分布在[0,1]之間的隨機數 x 和 y。
3. **檢查點是否在單位圓內**:如果 `x^2 + y^2 <= 1`,則計數器 `inside` 增加1。
4. **計算π值**:使用 π = 4 * (inside / n) 計算結果并返回。### 輸出結果:
```python
π ≈ 3.14159265358979323846
```這個方法通過蒙特卡洛模擬隨機采樣來估計π的值,需要較大的樣本數量(如百萬次)才能得到足夠精確的結果。

?先簡單玩到這里,以后有新玩法再作補充。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/894647.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/894647.shtml
英文地址,請注明出處:http://en.pswp.cn/news/894647.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

C++11詳解(一) -- 列表初始化,右值引用和移動語義

文章目錄 1.列表初始化1.1 C98傳統的{}1.2 C11中的{}1.3 C11中的std::initializer_list 2.右值引用和移動語義2.1左值和右值2.2左值引用和右值引用2.3 引用延長生命周期2.4左值和右值的參數匹配問題2.5右值引用和移動語義的使用場景2.5.1左值引用主要使用場景2.5.2移動構造和移…

在K8S中,pending狀態一般由什么原因導致的?

在Kubernetes中&#xff0c;資源或Pod處于Pending狀態可能有多種原因引起。以下是一些常見的原因和詳細解釋&#xff1a; 資源不足 概述&#xff1a;當集群中的資源不足以滿足Pod或服務的需求時&#xff0c;它們可能會被至于Pending狀態。這通常涉及到CPU、內存、存儲或其他資…

手寫MVVM框架-構建虛擬dom樹

MVVM的核心之一就是虛擬dom樹&#xff0c;我們這一章節就先構建一個虛擬dom樹 首先我們需要創建一個VNode的類 // 當前類的位置是src/vnode/index.js export default class VNode{constructor(tag, // 標簽名稱&#xff08;英文大寫&#xff09;ele, // 對應真實節點children,…

linux內核源代碼中__init的作用?

在 Linux 內核源代碼中&#xff0c;__init是一個特殊的宏&#xff0c;用于標記在內核初始化階段使用的變量或函數。這個宏的作用是告訴內核編譯器和鏈接器&#xff0c;被標記的變量或函數只在內核的初始化階段使用&#xff0c;在系統啟動完成后就不再需要了。因此&#xff0c;這…

【大數據技術】教程03:本機PyCharm遠程連接虛擬機Python

本機PyCharm遠程連接虛擬機Python 注意:本文需要使用PyCharm專業版。 pycharm-professional-2024.1.4VMware Workstation Pro 16CentOS-Stream-10-latest-x86_64-dvd1.iso寫在前面 本文主要介紹如何使用本地PyCharm遠程連接虛擬機,運行Python腳本,提高編程效率。 注意: …

pytorch實現門控循環單元 (GRU)

人工智能例子匯總&#xff1a;AI常見的算法和例子-CSDN博客 特性GRULSTM計算效率更快&#xff0c;參數更少相對較慢&#xff0c;參數更多結構復雜度只有兩個門&#xff08;更新門和重置門&#xff09;三個門&#xff08;輸入門、遺忘門、輸出門&#xff09;處理長時依賴一般適…

PAT甲級1032、sharing

題目 To store English words, one method is to use linked lists and store a word letter by letter. To save some space, we may let the words share the same sublist if they share the same suffix. For example, loading and being are stored as showed in Figure …

最小生成樹kruskal算法

文章目錄 kruskal算法的思想模板 kruskal算法的思想 模板 #include <bits/stdc.h> #define lowbit(x) ((x)&(-x)) #define int long long #define endl \n #define PII pair<int,int> #define IOS ios::sync_with_stdio(0),cin.tie(0),cout.tie(0); using na…

為何在Kubernetes容器中以root身份運行存在風險?

作者&#xff1a;馬辛瓦西奧內克&#xff08;Marcin Wasiucionek&#xff09; 引言 在Kubernetes安全領域&#xff0c;一個常見的建議是讓容器以非root用戶身份運行。但是&#xff0c;在容器中以root身份運行&#xff0c;實際會帶來哪些安全隱患呢&#xff1f;在Docker鏡像和…

js --- 獲取時間戳

介紹 使用js獲取當前時間戳 語法 Date.now()

ConcurrentHashMap線程安全:分段鎖 到 synchronized + CAS

專欄系列文章地址&#xff1a;https://blog.csdn.net/qq_26437925/article/details/145290162 本文目標&#xff1a; 理解ConcurrentHashMap為什么線程安全&#xff1b;ConcurrentHashMap的具體細節還需要進一步研究 目錄 ConcurrentHashMap介紹JDK7的分段鎖實現JDK8的synchr…

Vue和Java使用AES加密傳輸

背景&#xff1a;Vue對參數進行加密&#xff0c;對響應進行解密。Java對參數進行解密&#xff0c;對響應進行解密。不攔截文件上傳類請求、GET請求。 【1】前端配置 安裝crypto npm install crypto-js編寫加解密工具類encrypt.js import CryptoJS from crypto-jsconst KEY …

開發板目錄 /usr/lib/fonts/ 中的字體文件 msyh.ttc 的介紹【微軟雅黑(Microsoft YaHei)】

本文是博文 https://blog.csdn.net/wenhao_ir/article/details/145433648 的延伸擴展。 本文是博文 https://blog.csdn.net/wenhao_ir/article/details/145433648 的延伸擴展。 問&#xff1a;運行 ls /usr/lib/fonts/ 發現有一個名叫 msyh.ttc 的字體文件&#xff0c;能介紹…

[ESP32:Vscode+PlatformIO]新建工程 常用配置與設置

2025-1-29 一、新建工程 選擇一個要創建工程文件夾的地方&#xff0c;在空白處鼠標右鍵選擇通過Code打開 打開Vscode&#xff0c;點擊platformIO圖標&#xff0c;選擇PIO Home下的open&#xff0c;最后點擊new project 按照下圖進行設置 第一個是工程文件夾的名稱 第二個是…

述評:如果抗拒特朗普的“普征關稅”

題 記 美國總統特朗普宣布對美國三大貿易夥伴——中國、墨西哥和加拿大&#xff0c;分別征收10%、25%的關稅。 他威脅說&#xff0c;如果這三個國家不解決他對非法移民和毒品走私的擔憂&#xff0c;他就要征收進口稅。 去年&#xff0c;中國、墨西哥和加拿大這三個國家&#…

九. Redis 持久化-AOF(詳細講解說明,一個配置一個說明分析,步步講解到位 2)

九. Redis 持久化-AOF(詳細講解說明&#xff0c;一個配置一個說明分析&#xff0c;步步講解到位 2) 文章目錄 九. Redis 持久化-AOF(詳細講解說明&#xff0c;一個配置一個說明分析&#xff0c;步步講解到位 2)1. Redis 持久化 AOF 概述2. AOF 持久化流程3. AOF 的配置4. AOF 啟…

C++11新特性之long long超長整形

1.介紹 long long 超長整形是C11標準新添加的&#xff0c;用于表示更大范圍整數的類型。 2.用法 占用空間&#xff1a;至少64位&#xff08;8個字節&#xff09;。 對于有符號long long 整形&#xff0c;后綴用“LL”或“II”標識。例如&#xff0c;“10LL”就表示有符號超長整…

瀏覽器查詢所有的存儲信息,以及清除的語法

要在瀏覽器的控制臺中查看所有的存儲&#xff08;例如 localStorage、sessionStorage 和 cookies&#xff09;&#xff0c;你可以使用瀏覽器開發者工具的 "Application" 標簽頁。以下是操作步驟&#xff1a; 1. 打開開發者工具 在 Chrome 或 Edge 瀏覽器中&#xf…

基于Springboot框架的學術期刊遴選服務-項目演示

項目介紹 本課程演示的是一款 基于Javaweb的水果超市管理系統&#xff0c;主要針對計算機相關專業的正在做畢設的學生與需要項目實戰練習的 Java 學習者。 1.包含&#xff1a;項目源碼、項目文檔、數據庫腳本、軟件工具等所有資料 2.帶你從零開始部署運行本套系統 3.該項目附…

新版231普通阿里滑塊 自動化和逆向實現 分析

聲明: 本文章中所有內容僅供學習交流使用&#xff0c;不用于其他任何目的&#xff0c;抓包內容、敏感網址、數據接口等均已做脫敏處理&#xff0c;嚴禁用于商業用途和非法用途&#xff0c;否則由此產生的一切后果均與作者無關&#xff01; 逆向過程 補環境逆向 部分補環境 …