文章目錄
- 一、引言
- 二、安裝Ollama+部署DeepSeekR1
- 三、安裝Docker
- 四、安裝使用RAGFlow
- 4.1 系統架構
- 4.2 部署流程
- 4.3 使用RAGFlow
- 4.4 在RAGFlow中新增模型
- 4.5 創建知識庫
- 4.6 創建私人助理使用RGA
一、引言
本地部署DeepSeek R1 + Ollama + RAGFlow構建個人知識庫,通過將數據完全存儲在本地硬盤,徹底杜絕隱私泄露風險,規避云端服務不穩定導致的延遲或中斷問題;借助RAGFlow的自定義知識庫能力,可精準解析專業文檔(如法律、醫療資料),突破通用大模型的領域局限,實現高效檢索與智能問答,打造安全、穩定且持續進化的專屬知識中樞。
我們部署DeepSeekR1需要借助Ollama開源大模型平臺,部署RAGFlow需要借助Docker來實現,整體流程:安裝Ollama->部署DeepSeek R1模型->基于Docker部署RAGFlow->配置RAGFlow->知識庫構建->問答測試
二、安裝Ollama+部署DeepSeekR1
親測有效!使用Ollama本地部署DeepSeekR1模型,指定目錄安裝并實現可視化聊天與接口調用:安裝Ollama+部署DeepSeekR1
在完成Ollama與DeepSeek R1的本地部署后(部署流程詳見以上文章),若需通過Docker容器化部署的RAGFlow集成該模型服務,需針對性調整Ollama的網絡配置以打通容器間通信鏈路。Docker默認采用獨立網絡命名空間,容器內服務無法直接訪問宿主機本地環回地址 (127.0.0.1)。當RAGFlow容器嘗試連接宿主機Ollama服務時,需將Ollama的API端點暴露至容器可達的網絡接口。
具體操作方法:
編輯系統環境變量->高級->環境變量->新建用戶變量->變量名(OLLAMA_HOST) 變量值(:11434)->重啟電腦
三、安裝Docker
Docker官網:Docker
進入官網后選擇Download for Windows -AMD64
進行安裝
在Windows系統上部署Docker(支持 Windows 10/11 專業版/企業版/教育版
,家庭版需通過WSL2
間接支持)
安裝完畢Docker后選擇Use advanced settings
使用高級設置,選擇Update to the latest version of WSL 2 from Microsoft(Recommended - requires administrator passwod)
從Microsoft更新到最新版本的WSL 2,點擊Finish
完成
如果安裝成功后顯示報錯Docker Engine stopped...
說明缺少wsl,此時會自動彈框提示我們安裝適用于Linux的Windows子系統,安裝一下就ok了。如果沒有自動彈框,我們需要到Windows PoweShell
中執行wsl --update
命令來進行安裝。
如果安裝完wsl
依舊報錯,這個時候我們需要檢查下報錯內容看看是否打開了虛擬機,如果沒有打開的話我們需要啟用虛擬機平臺
,然后在BLOS
中啟用虛擬化,這個大家可以自行去網上來查相應的解決方案,這里也不在過多敘述了。
安裝完成后我們需要配置一下Docker的鏡像源來提高國內的下載速度 https://docker.1ms.run
,這個鏡像源可能會失效,如果大家有更好更快的鏡像源可以自行配置
四、安裝使用RAGFlow
RAGFlow開源代碼:RAGFlow Github地址
RAGFlow 是一款基于 檢索增強生成(Retrieval-Augmented Generation, RAG) 技術的開源框架,專注于構建企業級智能知識庫與問答系統。它通過結合大語言模型(LLM)與結構化文檔處理能力,實現從海量非結構化數據(如PDF、Word、掃描件等)中精準提取信息并生成專業回答,是當前私有化知識管理的先進工具。
4.1 系統架構
圖中組件 | 功能解釋 |
---|---|
File | 用戶上傳的原始文件(如 PDF、Word、掃描件等),是系統的輸入源。 |
Document Parser | 文檔解析引擎,負責文件格式解析、OCR 識別、版式分析與結構化分塊。 |
Documents | 解析后的結構化文檔數據(分塊文本、表格、圖像等),存儲于向量數據庫中。 |
Task Dispatch | 任務調度器,管理文檔處理、檢索、生成等任務的隊列與資源分配。 |
Tasks | 具體任務實例(如解析任務、檢索任務、生成任務),由調度器分發執行。 |
Questions | 用戶輸入的自然語言問題,觸發檢索與生成流程。 |
LMs | 大語言模型(如 DeepSeek R1),負責根據檢索結果生成最終答案。 |
Answer | 系統輸出的結構化回答,結合檢索內容與模型生成能力。 |
流程圖
異步任務處理
4.2 部署流程
前提條件
CPU >= 4 核
RAM >= 16 GB
Disk >= 50 GB
Docker >= 24.0.0 & Docker Compose >= v2.26.1
運行以下命令會自動下載 RAGFlow slim Docker 鏡像 v0.16.0-slim
。請參考下表查看不同 Docker 發行版的描述。如需下載不同于 v0.16.0-slim
的 Docker 鏡像,請在運行 docker compose
啟動服務之前先更新 docker/.env
文件內的 RAGFLOW_IMAGE
變量。比如,你可以通過設置 RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
來下載 RAGFlow 鏡像的 v0.16.0
完整發行版。
$ cd ragflow-main
$ docker compose -f docker/docker-compose.yml up -d
如果需要修改不同的發行版,可以進入到ragflow-main的docker
文件夾中,然后修改.env
文件
默認的發行版是RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
,這個是精簡版,僅包含核心運行依賴,如果我們想使用標準版的話可以把它注釋掉,然后打開RAGFLOW_IMAGE=infiniflow/ragflow:v0.16.0
標準版的注釋,標準版包含核心依賴以及開發調試工具
此時我們需要切換到ragflow-main
目錄,然后運行docker compose -f docker/docker-compose.yml up -d
來安裝Docker鏡像,我們可能會在安裝的過程中安裝失敗或者安裝速度緩慢,此時我們需要配置Docker的鏡像源,下面是RAGFlow
提供的一些鏡像源可供參考:(可能需要借助魔法,魔法需要大家自行解決)
- 華為云鏡像名:swr.cn-north-4.myhuaweicloud.com/infiniflow/ragflow
- 阿里云鏡像名:registry.cn-hangzhou.aliyuncs.com/infiniflow/ragflow
4.3 使用RAGFlow
RAGFlow安裝完成后,默認端口是80,此時我們訪問localhost
如果能訪問到登錄頁面就證明部署成功了,此時我們需要注冊一個賬號來進行登錄
進入到首頁就是這個樣子,此時我們需要添加并配置Ollama模型到RAGFlow中
4.4 在RAGFlow中新增模型
第一步點擊頭像
第二步新增Ollama模型
選擇模型提供商,然后選擇添加Ollama模型,隨后模型類型選擇chat
,模型名稱就是你本地部署的DeepSeek的模型名稱,我這里本地部署的是deepseek-r1:1.5b
,如果不知道模型名稱是什么的可以去DOS窗口去執行ollama list
命令來進行查詢,基礎URL的話我們這個需要寫http://host:port
,host獲取方式需要通過DOS窗口執行ipconfig
命令去查詢,端口號默認是11434
,最大token數這里大家隨意設置,token數取決于大模型輸出內容的長度。最后點擊確定。
查詢本機ip地址
查詢本地部署模型名稱
第三步:隨后我們需要去配置系統模型,這里我們聊天模型選擇deepseek-r1
4.5 創建知識庫
這里我們需要對自己的知識庫新增文件后然后解析我們上傳的知識庫
4.6 創建私人助理使用RGA
這里我們需要設置助理的名稱以及配置剛剛我們創建的知識庫
我們這里可以看出它引用了我剛剛上傳的知識庫
如果大家在部署的任何環節中出現問題的話可以在評論區中留言,或者可以添加下方的名片來咨詢遇到的問題!感謝大家閱讀,謝謝!!!