在大年三十那天,不知道你是否留意到,“deepseek”這個詞出現在了各大熱搜榜單上。這引起了我的關注,出于學習的興趣,我深入研究了一番,才有了這篇文章的誕生。
概念
那么,什么是DeepSeek?首先百度一下!
噢,原來是一個AI大模型,那就進入官網看看 DeepSeek
不管三七二十一,先注冊一個賬號再說
登錄進去
這不跟ChatGPT一樣嗎!
影響
那么為什么會突然霸榜,來看看最近的新聞資訊
根據這些新聞標題,可看出DeepSeek觸動了美國的利益,遭到了美國方面的DDOS攻擊和封殺
鏈接一:被美軍限制的DeepSeek,究竟是啥?
中國公司的DeepSeek模型產品推出后,躍上美國蘋果App商店免費下載排行榜冠軍,撼動科技圈和華爾街。除掀起廣泛討論外,也引發所謂“安全隱憂”。
報道稱,美國海軍向美國消費者新聞與商業頻道證實,已向相關人員發出郵件示警,提醒“不得以任何形式下載、安裝或使用DeepSeek模型”。
與OpenAI開發的ChatGPT相比,DeepSeek不僅率先實現了媲美OpenAI-o1模型的效果,還大幅降低了推理模型的成本。其新模型DeepSeek-R1以十分之一的成本達到了GPT-o1級別的表現,引發海外AI圈的廣泛討論。
小的算力用新的方法也能創造奇跡。
鏈接二:DeepSeek崛起背后的暗流:全球AI技術博弈下的DDoS攻擊
然而,伴隨著DeepSeek國際影響力的持續攀升,其面臨的挑戰也愈發復雜和嚴峻,自從DeepSeek發布性能比肩OpenAIo1正式版,且成本顯著降低的DeepSeek-R1模型后,隨即遭受一系列有針對性的網絡攻擊,對DeepSeek的日常運營構成嚴重威脅,攻擊背后的動機與意圖不免讓人懷疑。這一現象不僅凸顯了DeepSeek在全球AI領域的重要戰略地位,更折射出國際人工智能技術博弈的復雜性與激烈程度,值得深思與警醒。
鏈接三:僵尸網絡進場,針對 DeepSeek 網絡攻擊再升級
1月30日凌晨,即農歷大年初二,奇安信XLab實驗室監測發現,針對DeepSeek(深度求索)線上服務的攻擊烈度突然升級,其攻擊指令較1月28日暴增上百倍。XLab實驗室觀察到至少有2個僵尸網絡參與攻擊,共發起了兩波次攻擊。
使用
提問模板
1、背景+需求+約束條件
- 背景:我是一個互聯網打工人,自媒體小白。 ?
- 需求:我想學習如何運營自媒體。 ?
- 約束條件:不需要考慮視頻剪輯部分。
2、背景+問題+要求+細節
- 背景:我正在用Python開發一個天氣API,使用Flask框架…
- 問題:如何實現用戶輸入城市后返回實時天氣數據?
- 要求:請提供代碼片段,并解釋關鍵參數。
- 細節:① 嘗試用requests庫但返回404;② 需免費API密鑰。
分享今天看到的公眾號文章
第一篇文章:使用DeepSeek必備的10個技巧
該文詳細對比了DS和ChatGPT,以及介紹了V3模型和R1模型的區別和使用示例
第二篇文章:語言學博士談 DeepSeek 最佳使用方式
詳細介紹了DS推理模型R1對我們的作用和使用姿勢
第三篇文章:完整攻略:如何用好DeepSeek,一文匯總!
本地部署
本地部署大模型的意義:
1.數據隱私與安全:本地部署能確保敏感數據不出本地,避免數據泄露風險,尤其適用于醫療、金融等對隱私要求高的行業。
2.定制化需求:本地部署允許根據特定需求調整和優化模型,提升在特定任務上的表現,滿足個性化需求。
3.網絡與延遲問題:本地部署減少了對網絡的依賴,避免了網絡不穩定或延遲對實時應用的影響,適合需要快速響應的場景。
4.成本控制:長期使用云服務的成本較高,本地部署雖然初期投入大,但長期來看可能更經濟,尤其在大規模應用中。
5.合規要求:某些行業或地區有嚴格的數據存儲和處理規定,本地部署有助于滿足這些合規要求。
6.技術掌控:本地部署讓用戶完全控制模型和基礎設施,便于進行深度優化和擴展,適合有技術能力的團隊。
7.離線環境需求:在沒有網絡連接的環境中,本地部署是唯一可行的選擇,如偏遠地區或軍事應用。
8.避免供應商鎖定:本地部署減少對特定云服務商的依賴,增強自主性,避免因服務商政策變化帶來的風險。
總結來說,本地部署大模型在隱私、定制化、延遲、成本、合規、技術控制、離線需求和避免供應商鎖定等方面具有優勢,適合有特定需求的用戶。
一、命令行使用
1、下載安裝:Ollama
Ollama 是一個提供本地部署大型語言模型的工具和平臺,旨在幫助用戶在自己的設備上運行和管理大模型。它允許開發者和企業使用像 GPT-3、GPT-4 等大型語言模型,但與常規的云服務不同,Ollama 讓這些模型可以在本地機器上運行,從而實現更好的控制和隱私保護。
支持Mac、Linux、Windows三個操作系統,大同小異,本文僅演示Windows系統部署
?
2、驗證是否成功安裝
?
3、 在?Ollama?上找到DS-R1大模型。本文僅演示部署R1,V3體積太大,我的機器承受不了
?
4、根據自身的需求和電腦配置選擇模型大小
?
在大模型的規格描述中,“多少 b” 代表的是 參數量(參數規模,Parameters),而 b 在這里指的是“billion”(十億),上圖1.5b就是指15億個參數。?下面是一個模型大小配置參考表格,大家可根據自己的電腦配置來自行選擇,當然了,部署的本地模型越大,使用的深度求索效果就越好。
復制命令,到本地CMD命令行執行?
?
5、完成后,界面出現success,表示成功部署到本地
6、驗證使用
剛安裝完直接使用貌似有點小BUG,關閉后重新運行就沒問題了
以后每次啟動,就直接通過以下命令啟動
ollama run deepseek-r1:1.5b
離線模式寫了個小學生作文
如果想退出模型,在終端輸入:/bye即可,或者直接關閉窗口
大模型安裝路徑:
二、網頁使用
本地命令行使用還是不太直觀,可以選擇 Chatbox AI 進行網頁端訪問,提高可交互性。
Chatbox AI 是一款跨平臺的 AI 客戶端應用和智能助手,支持多種先進的 AI 模型和 API,可在 Windows、macOS、Android、iOS、Linux 以及網頁版上使用。?
1、點擊“啟動網頁版”
2、選擇下面的“使用自己的API KEY/本地模型”
3、選擇 Ollama API
4、配置環境變量
如何將 Chatbox 連接到遠程 Ollama 服務:逐步指南 - Chatbox 幫助中心:指南與常見問題
?
5、再次打開設置,選擇剛才下載的本地模型
?6、設置簡體中文
7、完成,使用測試,說實話,這個思考過程的展示還是很棒的