1.DeepSeek部署-Win版本
2.DeepSeek部署-Linux版本
3.DeepSeek部署-一鍵部署(Linux版本)
4.DeepSeek部署-進階版本(Linux+GPU)
5.DeepSeek部署-基于vLLM部署
前面部署了vLLM版本以后,訪問它比較麻煩。如何才能更好的實現訪問呢,這個就是我們今天要講的Open WebUI,它可以向我們使用官方DeepSeek一樣直接在網頁進行對話。
OpenWeb UI 是一個功能豐富且用戶友好的自托管 Web 用戶界面,主要用于管理和操作各種本地和云端的人工智能模型。它支持多種大型語言模型(LLM)運行程序,包括 Ollama 和兼容 OpenAI 的 API,旨在完全離線操作。以下是關于 OpenWeb UI 的詳細介紹:
主要特點
-
用戶界面:直觀且響應式,可在任何設備上提供卓越的體驗。支持多種主題和自定義選項,滿足個人喜好。
-
性能:快速響應和流暢的性能,即使在處理復雜任務時也是如此。支持多模型和多模態交互,實現更強大的功能。
-
功能:包括全面 Markdown 和 LaTeX 支持,本地 RAG 集成,Web 瀏覽功能,提示預設,RLHF 注釋,對話標記,模型管理功能,語音輸入和文本轉語音,高級參數微調,圖像生成集成等。
-
API 支持:支持 OpenAI API 和其他兼容 API,擴展其功能。
安裝和使用
- 安裝:通過 Docker 或 Kubernetes(如 kubectl、kustoize 或 helm)無縫安裝,支持 ollama 和 cuda 標記的圖像。
- Ollama/OpenAI API 集成:輕松集成與 OpenAI 兼容的 API,與 Ollama 模型一起進行多功能對話。
- Pipelines 插件支持:使用 Pipelines 插件框架將自定義邏輯和 Python 庫無縫集成到 Open WebUI 中
1.創建conda 虛擬環境
conda?create?--name openwebui python=3.12.9
2.安裝Open WebUI
pip install?open-webui -i https://mirrors.aliyun.com/pypi/simple/
3.啟動Open WebUI
# 禁用OLLAMA API
export?ENABLE_OLLAMA_API=False
# 設置OpenAI API的基礎URL為本地服務器
export?OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1
# 設置默認模型路徑
export?DEFAULT_MODELS="/root/deepseekr1_1.5b/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B"
# 啟動Open WebUI
open-webui serve