以下是一份在 Ubuntu 系統上本地部署 RAGFlow 的詳細教程。
一、基礎環境準備
1.硬件要求
–CPU ≥ 4核
–RAM ≥ 16 GB
–磁盤空間 ≥ 50 GB(建議 SSD)
2.系統配置
更新系統
sudo apt update && sudo apt upgrade -y
設置內核參數(Elasticsearch 必需)
sudo sysctl -w vm.max_map_count=262144
echo “vm.max_map_count=262144” | sudo tee -a /etc/sysctl.conf # 永久生效
二、安裝 Docker 與 Docker Compose
1.卸載舊版本(如有)
sudo apt remove docker docker-engine docker.io containerd runc
2.安裝依賴與 Docker
sudo apt install apt-transport-https ca-certificates curl gnupg-agent software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
sudo add-apt-repository “deb [arch=amd64] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable”
sudo apt update
sudo apt install docker-ce docker-ce-cli containerd.io
3.安裝 Docker Compose v2.26.1+
sudo curl -L “https://github.com/docker/compose/releases/download/v2.26.1/docker-compose- ( u n a m e ? s ) ? (uname -s)- (uname?s)?(uname -m)” -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
4.配置國內鏡像加速
創建 /etc/docker/daemon.json:
Json {
“registry-mirrors”: [“https://docker.1panel.live”, “https://dockerproxy.cn”]
}
重啟服務:
sudo systemctl daemon-reload
sudo systemctl restart docker
三、部署 RAGFlow
1.克隆倉庫
git clone https://github.com/infiniflow/ragflow.git
cd ragflow/docker
chmod +x ./entrypoint.sh # 授予執行權限
2.啟動服務(默認使用 CPU 版本)
docker compose -f docker-compose.yml up -d
注:GPU 加速需使用 docker-compose-gpu.yml(需已安裝 NVIDIA 驅動) 。
3.驗證服務狀態
docker logs -f ragflow-server # 出現 “RAGFlow is running!” 即成功
4.訪問 Web UI
瀏覽器打開:http://<服務器IP>:8080(默認端口 8080,可在 .env 中修改 SVR_HTTP_PORT) 。
四、配置 Ollama 本地模型
1.安裝 Ollama
curl -fsSL https://ollama.com/install.sh | sh
2.修改配置文件(監聽所有 IP)
sudo vim /etc/systemd/system/ollama.service
添加兩行:
Ini [Service]
Environment=“OLLAMA_HOST=0.0.0.0:11434”
Environment=“OLLAMA_MODELS=/path/to/ollama_cache” # 自定義模型存儲路徑
重啟服務:
sudo systemctl daemon-reload
sudo systemctl restart ollama
3.下載模型(如 DeepSeek-R1)
ollama run deepseek-ai/deepseek-r1:latest
?? 五、RAGFlow 模型與知識庫配置
1.Web UI 中添加 Ollama 模型
–登錄 RAGFlow → 右上角頭像 → 模型供應商 → 選擇 Ollama
–填寫信息:
?模型名稱:deepseek-r1(與 ollama list 名稱一致)
?基礎 URL:http://<服務器IP>:11434
?最大 Token:4096
2.設置系統模型
–聊天模型:選擇剛添加的 deepseek-r1
–嵌入模型:推薦 shaw/dmeta-embedding-zh:latest(需先通過 Ollama 下載)
3.創建知識庫
–知識庫 → 新建知識庫 → 上傳文檔(支持 Word/PDF/Excel 等)
–配置解析方法(按文檔類型選擇模板)
4.新建助理并測試
–聊天 → 新建助理 → 綁定知識庫 → 開始問答測試
?? 六、常見問題解決
?端口沖突:修改 ragflow/docker/.env 中的 SVR_HTTP_PORT,重啟服務。
?鏡像拉取慢:確保 Docker 鏡像加速配置生效(見第二.4步)。
?Ollama 連接失敗:檢查防火墻是否放行 11434 端口,確認 OLLAMA_HOST 配置正確。
?模型加載錯誤:確認 Ollama 模型名稱與 RAGFlow 中填寫一致,且已下載完成。
💎 總結
本教程覆蓋了從系統配置到模型集成的全流程,關鍵點包括:
1.內核參數 vm.max_map_count 對 Elasticsearch 至關重要;
2.Docker 鏡像加速可大幅提升部署效率;
3.Ollama 需配置為 0.0.0.0 監聽以實現跨容器通信;
4.知識庫支持的文檔類型豐富,解析方法需匹配文件格式。