AI MCP 系列
AgentGPT-01-入門介紹
Browser-use 是連接你的AI代理與瀏覽器的最簡單方式
AI MCP(大模型上下文)-01-入門介紹
AI MCP(大模型上下文)-02-awesome-mcp-servers 精選的 MCP 服務器
AI MCP(大模型上下文)-03-open webui 介紹 是一個可擴展、功能豐富且用戶友好的本地部署 AI 平臺,支持完全離線運行。
AI MCP(大模型上下文)-04-n8n 為技術團隊打造的安全工作流自動化平臺
AI MCP(大模型上下文)-05-anything-llm AnythingLLM 您一直在尋找的全方位AI應用程序
AI MCP(大模型上下文)-06-maxkb 強大易用的企業級 AI 助手
AI MCP(大模型上下文)-07-dify 入門介紹
AI MCP(大模型上下文)-08-分享一些好用的 Dify DSL 工作流程
AI MCP(大模型上下文)-09-基于Dify自主創建的AI應用DSL工作流
AI MCP(大模型上下文)-10-Activepieces 一個開源的 Zapier 替代方案
AI MCP(大模型上下文)-11-微軟 Playwright MCP server
AI MCP(大模型上下文)-12-AWS MCP
AI MCP(大模型上下文)-13-github MCP
Open WebUI 中文文檔 👋
Open WebUI 是一個可擴展、功能豐富且用戶友好的本地部署 AI 平臺,支持完全離線運行。
支持多種 LLM 后端(如 Ollama 和 OpenAI 兼容 API),內置 RAG 推理引擎,是強大的 AI 部署解決方案。
💡 企業版需求? 立即聯系我們銷售團隊,獲取 定制主題與品牌、服務等級協議 (SLA)、長期支持版本 (LTS) 等更多增強功能!
更多信息請訪問:Open WebUI 官方文檔
🌟 核心功能
-
🚀 快速安裝:通過 Docker 或 Kubernetes(kubectl/kustomize/helm)輕松部署,支持
:ollama
與:cuda
鏡像標簽。 -
🤝 Ollama/OpenAI 接口集成:支持連接 OpenAI 兼容接口,同時可使用 Ollama 模型,兼容 LMStudio、GroqCloud、Mistral、OpenRouter 等。
-
🛡? 細粒度權限與用戶分組:管理員可自定義用戶角色和權限,提升安全性和靈活性。
-
📱 響應式設計:支持桌面、筆記本與移動設備自適應界面。
-
📱 PWA 支持:移動端提供類原生應用體驗,可在本地離線訪問。
-
??🔢 支持 Markdown 與 LaTeX:提供更豐富的文本交互能力。
-
🎤📹 語音與視頻通話:支持免手動語音視頻聊天,增強交互性。
-
🛠? 模型構建器:Web UI 上可視化構建 Ollama 模型,支持角色/代理管理、模型導入、聊天界面自定義。
-
🐍 Python 函數調用:支持 BYOF(Bring Your Own Function),原生集成純 Python 函數與 LLM。
-
📚 本地 RAG 支持:集成文檔進聊天,使用
#
加文檔名快速檢索。 -
🔍 RAG 搜索引擎接入:支持 SearXNG、Google PSE、Brave、DuckDuckGo、TavilySearch、Bing 等。
-
🌐 網頁瀏覽功能:使用
#網址
直接加載網頁內容并在聊天中引用。 -
🎨 圖像生成集成:支持本地(AUTOMATIC1111、ComfyUI)與外部(OpenAI DALL·E)圖像生成。
-
?? 多模型會話:可同時調用多個模型進行交互,組合輸出結果。
-
🔐 基于角色的訪問控制(RBAC):限制模型拉取/創建權限,僅限管理員操作。
-
🌍 多語言支持:支持國際化,歡迎貢獻翻譯!
-
🧩 Pipelines 插件系統:支持注入自定義邏輯、Python 庫,示例包括函數調用、使用限制、多語言翻譯、有害內容過濾等。
-
🛠? 持續更新:持續迭代優化,新增功能與修復不斷推出。
更多功能請訪問:功能總覽
🚀 安裝指南
使用 Python pip 安裝
- 安裝:
pip install open-webui
- 運行:
open-webui serve
訪問地址:http://localhost:8080
使用 Docker 快速啟動
- 默認配置本地 Ollama:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 遠程 Ollama 服務:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- GPU CUDA 加速:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
- 僅使用 OpenAI API:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 集成 Ollama 的鏡像(GPU 支持):
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
- 集成 Ollama 的鏡像(僅 CPU):
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
訪問地址:http://localhost:3000
其他安裝方式
支持非 Docker 部署、Docker Compose、Kustomize、Helm 等。請訪問:安裝文檔
🛠? 故障排查
常見連接失敗多為容器內無法訪問 Ollama 服務。建議加上 --network=host
解決。
示例:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
使用 Watchtower 自動更新
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
🌙 Dev 分支說明
:dev
標簽包含最新實驗功能,可能存在不穩定或未完成特性。
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
離線模式
設置環境變量防止聯網下載模型:
export HF_HUB_OFFLINE=1
👥 社區與支持
- 💬 Discord 社區:https://discord.gg/openwebui
- 🐦 X(推特):https://x.com/openwebui
- 🌐 官網:https://openwebui.com
- 🐙 GitHub 項目主頁:https://github.com/open-webui/open-webui