文章目錄
- 前置條件
- 目標
- 一、安裝 Open-WebUI
- 使用 Docker 部署
- 二、使用 Open-WebUI
- (一)訪問Open-WebUI
- (二)注冊賬號
- (三)模型選擇
- (四)交互
- 四、常見問題
- (一)容器無法訪問宿主機
- (二)服務未啟動
- 參考文章
Open-WebUI 是一個功能強大的開源工具,旨在為用戶提供一個簡潔且功能豐富的界面來管理和使用大語言模型(LLM)。它支持與 Ollama 等后端服務集成,方便用戶通過 Web 界面進行模型交互。本文將詳細介紹 Open-WebUI 的安裝方法和基本使用技巧。
前置條件
- 電腦上裝有docker環境
可以參考這個文章https://www.runoob.com/docker/windows-docker-install.html
目標
- 啟動Open-WebUI連接本地Ollama啟動的大模型
一、安裝 Open-WebUI
使用 Docker 部署
如果Ollama在當前機器上,可以使用以下命令
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果Ollama在其他服務器上,請使用此命令:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- OLLAMA_BASE_URL:ollama連接地址
二、使用 Open-WebUI
(一)訪問Open-WebUI
打開瀏覽器,訪問 http://localhost:3000。
(二)注冊賬號
(三)模型選擇
這里可以切換ollama中已有的模型
(四)交互
左上角選擇完想要的模型后,即可與之對話
至此,即可在本地瀏覽器使用界面與大模型進行對話
四、常見問題
(一)容器無法訪問宿主機
如果你在部署時遇到容器無法訪問宿主機的問題,確保使用了 --add-host=host.docker.internal:host-gateway
參數。
(二)服務未啟動
如果服務未正常啟動,檢查 Docker 日志以獲取更多信息:
docker logs -f open-webui
參考文章
https://github.com/open-webui/open-webui