作者:后端小肥腸
目錄
1. 前言
2. 解決方案
2.1. 納米AI搜索(第三方平臺)
2.2. Github(第三方平臺)
2.3. 硅基流動(第三方API)
3. 本地部署詳細步驟
3.1. 運行配置需求
3.2. 部署教程
4. DeepSpeek資料獲取
5. 結語
1. 前言
2023年ChatGPT掀起的AI颶風中,一家中國AI公司正以驚人的速度改寫行業格局——DeepSeek智能推理平臺上線首月用戶突破百萬,日均API調用量超10億次,其自研的MoE混合專家模型在中文語境下的推理速度較主流方案提升300%。這場技術狂歡背后,折射出AI產業發展的新圖景:大模型應用正從"云端漫步"轉向"地面競速",推理效率成為決定AI服務成敗的關鍵勝負手。
DeepSeek的爆紅絕非偶然,其技術突破精準擊中了AI落地的三大痛點。通過動態負載均衡算法,平臺在10毫秒內完成計算資源調度;獨創的語義緩存機制使重復請求響應速度達到納秒級;更關鍵的是其混合精度量化技術,在保持98%模型精度的前提下,將推理能耗降低60%。這些創新讓企業客戶在電商推薦、金融風控等場景中真正體驗到"無感級"AI服務。
但是不知道大家發現沒有Deepspeek總是遇到下圖問題,網上的解釋為因為全球大量流量的涌入,再加上 DeepSeek 遭 X 國 IP 暴力攻擊,所以,目前官版的 DeepSeek 響應比較慢。
2. 解決方案
目前網上能搜羅的解決方案無非就是第三方平臺和第三方API,我這里列舉幾
個。
2.1. 納米AI搜索(第三方平臺)
App:
下圖中滿血版R1模型提問要20納米一次,要不要用,怎么用就看自己取舍了(說實話我覺得豆包就挺好用的了,我手機上相關的APP就一個豆包,過年下載了DeepSpeek由于總是服務器繁忙已經卸載了)。
網頁版本:納米AI
2.2. Github(第三方平臺)
網址:Sign in to GitHub · GitHub?
界面如下所示,需要手動拉滿Max Tokens:
在此頁面上,你可以找到以下資源:
-
源代碼:DeepSeek R1模型的實現代碼,包括模型架構、訓練代碼和推理代碼。
-
模型權重:預訓練的模型權重文件,方便你直接加載模型進行推理或微調。
-
技術文檔:詳細的文檔,介紹模型的設計理念、訓練過程和使用方法。
-
示例代碼:提供了如何在不同環境下使用DeepSeek R1模型的示例,幫助你·快速上手。
此外,GitHub頁面還包含了“Issues”部分,你可以在這里查看和提交與DeepSeek R1模型相關的問題和建議。例如,有用戶詢問如何在PC或移動設備上部署DeepSeek R1/V3精簡版,以及API是否可以調用本地知識庫等問題。
2.3. 硅基流動(第三方API)
硅基流動(SiliconCloud)是一家知名的AI技術公司,曾為用戶推薦過ComfyUI BizyAir插件。近期,他們與華為云合作,推出了基于昇騰云服務的DeepSeek R1模型API服務。這一服務旨在為開發者提供高效、穩定的AI模型推理能力,滿足大規模生產環境的需求。
通過SiliconCloud的API,開發者可以輕松接入DeepSeek R1模型,享受零部署門檻的便利。此外,SiliconCloud還提供了詳細的API文檔,幫助開發者快速上手,接下來就給大家演示怎么基于第三方API使用DeepSpeek:
1. 登錄硅基流動注冊賬號
首先,訪問SiliconCloud的官方網站,點擊注冊按鈕,按照提示完成注冊流程。
2. 提取API key
登錄后,進入用戶中心,找到API密鑰選項,點擊新建API秘鑰。生成后,請妥善保存該密鑰。
3. 安裝客戶端軟件
如果你要在客戶端應用中體驗 DeepSeek R1 模型,你可以選擇以下產品:
大模型客戶端應用:
- ChatBox
- Cherry Studio
- OneAPI
- NextChat
代碼生成應用:
- Cursor
- Windsurf
- Cline
大模型應用開發平臺:
- Dify
AI知識庫:
- Obsidian AI
- FastGPT
翻譯插件:
- 沉浸式翻譯:
- 歐路詞典:
以Cherry Studio為例,你可以訪問其官網(Cherry Studio - 全能的AI助手),按照步驟下載安裝對應版本的客戶端。
4. 配置API
運行客戶端軟件后,進入設置界面,找到SiliconCloud的API配置項。在API密鑰字段中輸入你在SiliconCloud獲取的API密鑰。然后,選擇DeepSeek R1模型,保存設置。完成后,你即可開始使用DeepSeek R1模型進行交互。
3. 本地部署詳細步驟
本地部署開源大模型具有以下優勢:
-
更穩定、更快的響應速度:本地部署減少了對網絡連接的依賴,避免了因網絡延遲導致的響應速度下降。
-
模型可控性:根據自身需求對模型進行定制和優化,提高模型的適用性和性能。
-
數據安全:在本地環境中處理數據,避免了將敏感信息上傳至云端,降低了數據泄露的風險。
-
成本控制:無限使用,無需支付云服務的訂閱費用,可降低使用成本。
-
靈活性:可以自由選擇和切換不同的模型,滿足多樣化的應用需求。
-
離線運行:在本地部署后,即使沒有網絡連接,也可以使用模型。
3.1. 運行配置需求
如果電腦的顯存不夠用,可以通過量化來減少對顯存的需求。量化就是把模型的參數從較高的精度(比如32位)轉換為較低的精度(比如8位),這樣可以節省顯存空間,讓你的電腦能夠運行更大的模型。舉個例子,如果你的電腦顯存是8GB,而你想使用7b參數的模型,但顯存不足,那么通過量化處理后,你就可以在不增加硬件的情況下,使用這個大模型。
簡而言之,量化可以幫助你在顯存有限的情況下運行更強大的模型,是優化顯存使用的有效方法。如果你不確定自己是否需要量化,可以參考下面的顯卡顯存列表來判斷自己電腦的顯存是否足夠運行所需的模型。
顯存大小 | 顯卡型號 |
---|---|
3GB | GTX 1060 3GB |
4GB | GTX 1050 Ti |
6GB | GTX 1060 6GB, RTX 2060 6GB, RTX 3050 (6GB) |
8GB | GTX 1080, GTX 1070 Ti, RTX 2080 SUPER, RTX 2080, RTX 2070 SUPER, RTX 2070, RTX 2060, RTX 2060 SUPER, RTX 3070, RTX 3070 Ti, RTX 3060 Ti, RTX 3060 (8GB), RTX 3050 (8GB), RTX 4080, RTX 4060 Ti, RTX 4060, RTX 5070 |
11GB | GTX 1080 Ti, RTX 2080 Ti |
12GB | RTX 2060 12GB, RTX 3060 (12GB), RTX 4070 Ti SUPER, RTX 4070, RTX 5070 Ti |
16GB | RTX 4060 Ti 16GB, RTX 5080 |
24GB | RTX 3090 Ti, RTX 3090, RTX 4080, RTX 4090 |
32GB | RTX 5090 |
根據電腦配置選擇合適的模型下載,下面列出了不同大小的DeepSeek模型對應的顯存和內存需求。請根據你的顯卡配置和MacOS系統的內存選擇合適的模型。
模型大小? ? | 顯存需求(FP16 推理)? | 顯存需求(INT8 推理)? | 推薦顯卡? | MacOS 需要的 RAM? |
1.5b? | 3GB? | 2GB? | RTX 2060/MacGPU 可運行? | 8GB? |
7b? | 14GB? | 10GB? | RTX 3060 12GB/4070 Ti? | 16GB? |
8b? | 16GB? | 12GB? | RTX 4070/MacGPU 高效運行? | 16GB? |
14b? | 28GB? | 20GB? | RTX 4090/A100-40G? | 32GB? |
32b? | 64GB? | 48GB? | A100-80G/2xRTX4090? | 64GB? |
如何看顯存,可以自行百度,我演示一下我的電腦是怎么看的,打開NVIDIA控制面板的系統信息:
從圖片中顯示的信息來看,我的顯卡是Quadro P620,顯存為4GB GDDR5(4GB)?,我能用的模型大小為1.5b(。。。今年努力買個4090)
3.2. 部署教程
本地部署教程分為需要設置環境版本(Ollama)和不需要設置環境(針對顯存不足)(LM Studio),我這里只講不需要設置環境怎么部署(Ollama的教程可以去網上自己找一下)。
1. 進入官網下載 LM Studio
地址:LM Studio - Discover, download, and run local LLMs?
這里可以看到是支持「DeepSeek」大模型的,當然也支持其他的開源大模型,原理是一樣的,后續小伙伴想測試其他的模型,這篇學會了,其他也就通了。?
?2. 安裝LM Studio
安裝過程很簡單,這里不展開講。
3.?設置中文
點擊右下角設置按鈕,將軟件語言設置為中文。
4. 修改模型文件夾
點擊我的模型,修改模型存放目錄
我改到了F盤:
5. 下載模型
打開「魔搭社區」下載,網站是阿里的。
?進入你想下載的模型:
點擊模型文件 ,在這些GGUF量化模型的文件名中,Q后面的數字(如Q3、Q4、Q6、Q8)代表模型的量化位數,用于指示模型權重的量化精度。
-
較低位數(如Q3、Q4):
- 模型文件較小,占用的存儲空間和內存更少。
- 推理速度更快,適合在資源有限的設備(如移動端、嵌入式設備)上運行。
- 但由于量化損失較大,模型的精度可能會有所下降。
-
較高位數(如Q6、Q8):
- 精度接近原始未量化模型,推理效果更好。
- 文件大小較大,推理速度相對較慢。
如果你需要盡可能小且運行速度更快的模型(例如在低端GPU或CPU上運行),可以選擇Q3或Q4。如果你更注重推理效果,并希望接近FP16(浮點模型)的精度,可以選擇Q6或Q8。根據需求選擇合適的量化位數,然后直接點擊下載即可。
6. 配置模型
將下載好的模型放置到模型目錄中:
7. 使用
回到聊天界面,選擇剛剛下載的大模型加載
點擊對應模型會彈出參數頁面,根據自己需要調整即可:
加載完成后,選擇右上角燒杯的圖標,我們可以設置提示詞,類似智能體?
現在來提問一下:
4. DeepSpeek資料獲取
如果你需要獲取關于DeepSeek的相關資料,可以通過關注我的公眾號【后端小肥腸】來領取《DeepSeek 15天指導手冊——從入門到精通》。
5. 結語
在使用DeepSeek模型時,無論是選擇第三方API還是進行本地部署,都需要根據自己的實際硬件配置做出最合適的決策。如果你的電腦配置較低,顯存不足,可以選擇通過第三方平臺或API來避免復雜的部署過程,快速享受到AI推理服務。而對于那些硬件條件較好的用戶,本地部署則提供了更多的控制權和靈活性,不僅可以節省長期的云服務費用,還能讓你完全掌控數據和模型的運行。
對于我個人而言,由于硬件配置的限制,目前使用的是第三方API,但對于有更強大硬件資源的開發者,本地部署無疑是一個更具吸引力的選項。無論如何,AI技術的進步已經開始改變我們的工作和生活方式,未來會有更多的可能性等著大家去探索。
希望這篇文章能為你的決策提供參考,祝愿大家在AI的世界里越走越遠。