【2025保姆級】Open-WebUI五大功能區首曝!第一篇:管理員面板深度拆解,手把手講解&配置AI管理中樞
- 一、引言
- 二、用戶
- 2.1 概述
- 2.2 權限組
- 三、競技場評估
- 四、函數
- 五、設置
- 5.1 通用
- 5.1.1 身份驗證
- 5.1.2 功能
- 5.2 外部連接
- 5.2.1 OpenAI API
- 5.2.2 Ollama API
- 5.2.3 直接連接
- 5.3 模型
- 5.4 競技場評估
- 5.5 文檔(RAG)
- 5.5.1 通用
- 5.5.2 嵌入
- 5.5.3 檢索
- 5.5.4 文件
- 5.5.5 集成
- 5.5.6 危險區域
- 5.6 聯網搜索
- 5.7 代碼執行
- 5.7.1 通用
- 5.7.2 代碼解釋器
- 5.8 界面
- 5.8.1 任務
- 5.8.2 界面
- 5.9 語音
- 5.9.1 語音轉文本設置
- 5.9.2 文本轉語音設置
- 5.9.3 拆分回復
- 5.10 圖像
- 5.11 Pipeline
- 5.12 數據庫
- 六、總結
一、引言
在上一篇《DeepSeek-R1 + Open-WebUI 雙系統部署全攻略》中,我們完成了從零搭建AI對話平臺的“基建工程”——無論是Linux還是Windows環境,你都能一鍵部署Open-WebUI,開啟與AI的交互之旅。但真正的“魔法”,始于你登錄系統后的第一眼界面。
作為一款開源AI對話平臺,Open-WebUI 以極簡的設計隱藏了強大的功能架構。整個界面可劃分為五大核心功能區:
- 💬對話區: 實時交互的主戰場,支持多模態輸入、歷史對話回溯與Prompt工程調試;
- 🧰工作空間區: 文件管理、代碼執行、插件擴展的“生產力工具箱”;
- 🎭用戶設置區: 個性化角色定義、隱私控制與交互偏好調節;
- 🧠管理員面板: 系統的“中樞神經”,掌控用戶權限、模型配置與安全防線;
- 🎪AI對話游樂場: 零代碼模型微調與多模型對比測試的實驗場。
本文將作為《Open-WebUI五大功能區深度解析》系列的首篇,結合2025年最新版本的功能升級,手把手拆解管理員面板,助你從“能用”進階到“敢用”,打造安全、高效、可擴展的AI管理后臺。
二、用戶
2.1 概述
- 用戶列表: 展示所有用戶信息,支持搜索功能
- 添加用戶: 支持手動添加和CSV文件導入
- 刪除用戶: 支持刪除非管理員用戶
- 修改用戶信息: 支持修改用戶名稱、密碼信息,也可以修改非管理員角色的郵箱
- 查看對話: 支持查看非管理員角色的所有對話信息
2.2 權限組
該權限組主要是管理用戶角色的用戶權限,所有的用戶角色會有一組默認的權限
- 編寫默認權限: 支持對默認的權限進行修改
- 創建權限組: 創建一個新的權限組,支持修改權限,添加用戶角色的用戶;注: 如果一個用戶擁有多個權限組,將取權限的并集
三、競技場評估
競技場評估是 Open-WebUI 的 “模型質檢中心”,通過自動化對抗與量化分析,它能將抽象的模型能力轉化為直觀的決策依據。無論是新模型上線前的性能驗證,還是生產環境中多模型的動態優化,這一功能都能通過自動化對抗測試與量化評估,幫你精準把控模型表現,避免“人工盲目調優”的陷阱。
使用方式: 在聊天過程中,如果您喜歡某個回復,點擊豎起大拇指,如果您不喜歡,點擊向下大拇指。
Open-WebUI的官方說明是:
四、函數
函數與工作空間中的工具模塊是類似的,屬于 Open-WebUI 的增強擴展功能,我們放到工作空間部分一起講解。
五、設置
5.1 通用
5.1.1 身份驗證
- 默認用戶角色: 用戶注冊時分配的角色,有待激活、用戶、管理員三個角色;待激活表示注冊后,不能立即使用此系統,需要管理員確認后才能使用;用戶表示注冊后,能立即使用此系統,但沒有管理員權限;管理員表示注冊后,擁有所有功能權限;
- 允許新用戶注冊: 是否允許新用戶通過頁面注冊;如果是內部系統一般是關閉的,只允許管理員手動新增的用戶使用;
- 在用戶待激活界面中顯示管理員郵箱等詳細信息: 方便聯系管理員進行授權;
- 啟用 API 密鑰: 控制第三方應用在調用Open-WebUI的API時是否需要加上API秘鑰(秘鑰在項目啟動時設置)
- API 密鑰端點限制: 默認對所有API端點啟用秘鑰限制,可通過該項控制范圍;
- 允許的端點: 允許的端點不做秘鑰限制,其它端點做秘鑰限制;
- JWT 過期: 管理用戶登錄令牌的有效期、刷新機制,默認-1表示無過期時間;
- LDAP: LDAP(輕量級目錄訪問協議)是 Open-WebUI 實現企業級用戶統一認證的核心模塊;
- 標簽(Label):用于標識不同的 LDAP 服務器實例(如測試環境與生產環境);如:ad-corp-prod
- 主機(Host):LDAP 服務器地址,支持 IP、域名或完整 LDAP URI;如:ldap://ad.example.com
- 端口(Port):標準值389:常規 LDAP 或 StartTLS 加密(先明文連接后升級加密);
- Application DN(綁定 DN):用于向 LDAP 服務器認證的管理賬號 DN,需具備目錄搜索權限;如:uid=admin,ou=system,dc=example,dc=com
- Application DN 密碼: 一般使用 Vault 或 KMS 動態獲取;
- 郵箱屬性(Email Attribute): 將 LDAP 中的某屬性映射到 Open-WebUI 郵箱屬性;如:mail
- 用戶名屬性(Username Attribute): 將 LDAP 中的某屬性映射到 Open-WebUI 用戶名屬性;如:employeeNumber
- 搜索庫(Base DN): 限定用戶搜索的起始目錄節點,提升查詢效率;如:ou=users,dc=example,dc=com
- 搜索過濾器(Search Filter): 基于 LDAP 查詢語法,支持邏輯運算符與占位符;如:搜索僅啟用狀態用戶使用(&(objectClass=user)(!(userAccountControl:1.2.840.113556.1.4.803:=2)))
- 傳輸層安全協議: 是否啟用
- 證書路徑(Certificate Path): SSL/TLS 連接時驗證服務器身份,防止中間人攻擊;如:CA 證書的路徑等
- 加密算法(Encryption Algorithm): 如 AES-GCM 算法等
5.1.2 功能
- 啟用分享至社區: 是否允許將會話內容分享到 Open-WebUI 社區;
- 啟用回復評價: 是否允許對模型回復進行評價(喜歡或踩);
- 頻道 (Beta): 是否開啟頻道,頻道是 Open-WebUI 2025 版新增的 Beta 功能,用于集成外部消息服務,實現雙向通信與自動化事件響應能力;
- Webhook URL: Webhook URL 是 Open-WebUI 向外部系統(需支持 Webhook)推送事件數據(目前只支持推送新用戶注冊事件)的 HTTP 端點;
- WebUI URL: 當前 Open-WebUI 的訪問地址,用于在外部系統消息中生成鏈接,接收通知后,能快速跳轉;
5.2 外部連接
外部連接是 Open-WebUI 與外部/內部大模型連接的核心樞紐,分為與外部大模型連接的OpenAI API 配置和與內部(本地)大模型連接的 Ollama API 配置。
5.2.1 OpenAI API
-
功能定位: 通過 OpenAI 官方 API 或兼容接口(如硅基流動、DeepSeek、訊飛星火等)接入 GPT-4、DeepSeek-R1 等云端模型;如下圖:成功接入了硅基流動、DeepSeek、訊飛星火等云端服務;
-
配置畫面: 如圖
注: 配置完后,點擊 “循環按鈕” 進行驗證,驗證通過會出現下圖1提示,驗證不通過會出現下圖2提示;如果出現錯誤提示,請檢查配置是否正確,如果都正確還是報錯誤提示,說明 Open-WebUI 暫時不兼容該云端平臺;
- URL: API 端點地址;例:針對硅基流動的文檔說明,配置 /chat/completions 前面的部分 https://api.siliconflow.cn/v1,因為 Open-WebUI在聊天請求URL上默認加 /chat/completions
- 秘鑰: OpenAI 官方密鑰或兼容服務的認證密鑰;例:一般為 sk- 開頭
- Prefix ID: 用于過濾模型,過濾出帶有 Prefix ID 前綴的模型,默認不過濾;
- 模型 ID: 手動添加指定模型,默認添加全部;
- URL: API 端點地址;例:針對硅基流動的文檔說明,配置 /chat/completions 前面的部分 https://api.siliconflow.cn/v1,因為 Open-WebUI在聊天請求URL上默認加 /chat/completions
5.2.2 Ollama API
-
功能定位: 管理本地部署的開源模型(如 LLaMA 3、DeepSeek-R1等)
-
配置畫面: 如圖
- 拉取模型: 從Ollama官網上實時拉取一個模型,相當于執行了 ollama pull 命令;
- 刪除模型: 刪除本地的一個模型,相當于執行了 ollama rm 命令;
- 創建模型: 從本地復制一個模型或拉取一個遠程模型再復制,相當于執行了 ollama cp 命令;
- 上傳GGUP模型: 本地運行一個GGUF文件并創建一個新模型;
5.2.3 直接連接
- 功能定位: 允許其他用戶(主要是非管理員角色)連接至其自有的、兼容 OpenAI 的 API 端點。
5.3 模型
- 模型列表: 針對上述 5.2 外部連接 配置的成功連接,管理的所有大模型列表,并支持搜索功能;如:博主配置三個 OpenAI API 與 Ollama API 管理的本地模型一共87個模型
- 模型啟用: 是否啟用模型,供聊天時選擇使用;
- 模型管理: 與上述 5.2.2 Ollama API 配置一致;
- 設置: 手動對模型列表進行排序;
- 模型編輯: 對模型配置擴展屬性;
- 更換模型圖像: 可上傳本地圖片替換默認模型圖片;
- 更換模型名稱: 可修改為自己偏好的模型名稱;
- 添加標簽: 可對模型添加額外標簽,供模型搜索時使用;
- 可見性: public(所有人可見)、 private(與權限組一起使用,不配置權限組將只有管理員可見);
- 系統提示詞: 給模型添加系統提示詞;
- 高級參數: 與模型聊天時各種調優參數;對話區有相同配置,我們放到對話區一起詳細講解;
- 提示詞建議: 給模型添加默認提示詞模版;效果如下:
8. 知識庫: 給模型添加關聯知識庫(知識庫配置在工作空間中講解);使用這個模型時,一定會在關聯的知識庫中檢索內容,作為提問的一部分(RAG);
9. 工具: 給模型添加關聯工具(工具配置在工作空間中講解);使用這個模型時,會選擇性使用關聯的工具輔助大模型完成回答任務;
10. 過濾器(FILTER): 給模型添加關聯過濾器(過濾器是函數的一部分,過濾器配置在工作空間中講解); 使用這個模型時,一定會使用關聯的過濾器(一般對聊天內容進行過濾);
11. 自動化(PIPE): 給模型添加關聯操作函數(自動化是函數的一部分,自動化配置在工作空間中講解);使用這個模型時,一定會使用關聯的自動化
12. 能力: Vision(是否支持圖像輸入)、Usage(是否展示本次響應的 Token 使用信息)、Citations(是否展示知識庫引用)
5.4 競技場評估
- 啟用競技場匿名評價模型: 是否開啟模型評價功能(不開啟將不展示大拇指功能)
- 添加競技場模型: 因考慮到模型評價功能有熱點傾向,不太公平;故可添加競技場模型,選中幾種模型(圖中選中三個),在使用這個新增模型時,會隨機選擇模型回答,此時看不到具體的模型,這樣評價更具有公平性;
5.5 文檔(RAG)
5.5.1 通用
- 內容提取引擎:
引擎 | 技術原理 | 優勢場景 | 限制條件 |
---|---|---|---|
默認 | 基于 Python 標準庫解析文本,支持 PDF、DOCX、TXT 等常見格式 | 輕量快速,適合基礎文檔處理 | 無法處理復雜表格、掃描件圖像文字提取 |
Tika(推薦) | 通過 Java 服務解析 1500+ 種文件格式,支持 OCR 和元數據提取 | 企業級文檔處理(如掃描件、郵件存檔) | 需部署獨立 Tika 服務器,資源消耗較高 |
Document Intelligence | 微軟 Azure 認知服務,提供結構化數據提取(如發票字段、合同條款) | 合規性敏感場景(金融、法律文檔解析) | 依賴云端 API,存在數據出境風險 |
注: Tika 服務部署,請使用以下命令
docker run -d --name tika \-p 9998:9998 \--restart unless-stopped \apache/tika:latest-full
- PDF 圖像處理 (使用 OCR): 只有選擇默認內容提取引擎時使用(默認引擎無OCR,如文檔中有圖片,務必開啟此項);
- 繞過嵌入和檢索: 開啟時,不會將文檔分塊存儲為向量,而是在提問時,將整個文檔發送給大模型(會有 Token 消耗過大和大模型不支持過多 Token 的風險,一般是在極小文檔場景下使用);
- 文本分切器:
參數 | 定義 | 計算公式 | 企業級配置示例 |
---|---|---|---|
分切模式 | 默認(字符):按固定字符長度切割 Token(Tiktoken):基于模型分詞器(如LLaMA、BGE)的語義邊界切割 | Token數 = 塊大小 / 平均中文字符長度(≈2) | 中文場景優先選擇 Token 分切 |
塊大小 | 單個文本塊的最大長度,需 ≤ 語義向量模型支持的 Max Tokens(如 bge-m3 支持 8192) | - | 中文模型推薦 512-1024 |
塊重疊 | 相鄰塊之間的重疊量,用于保留上下文關聯性 | 塊大小 × 10%~20% | 塊大小 1024 → 重疊 100-200 |
5.5.2 嵌入
- 語義向量模型引擎:
引擎類型 | 技術棧 | 典型模型 | 延遲/成本 |
---|---|---|---|
Ollama | 本地部署,支持私有化向量模型 | bge-m3、nomic-embed-text、Conan-embedding | 低延遲,硬件資源消耗高 |
SentenceTransformers | Hugging Face 模型庫,會到下載到本地cache目錄 | all-MiniLM-L6-v2、multilingual-e5 | 下載依賴網絡帶寬,建議手動下載后放到cache目錄中 |
OpenAI | 云端 API 服務 | text-embedding-3-small/large | 高延遲,按 Token 計費 |
-
語義向量模型: 根據語義向量模型引擎選擇填寫
-
Ollama: 比如 Ollama 下載了這幾個模型,直接使用 bge-m3:latest 即可
-
SentenceTransformers: 如自己手動下載到本地,務必放到容器內的 /app/backend/data/cache/embedding/models 目錄下且以 models-- 命令開頭;
-
OpenAI: 比如使用硅基流動的 BAAI/bge-m3 向量(嵌入)模型,配置如下:
注: 如果修改了語義向量模型,則需要重新導入所有文檔(重置向量存儲/知識)。
-
-
嵌入層批處理大小: 一次性使用向量模型處理文檔的數量大小;
-
完整上下文模式: 是否將整篇文檔都發送給大模型(會有 Token 消耗過大和大模型不支持過多 Token 的風險,一般是在極小文檔場景下使用);
-
混合搜索: 是否開啟重排模型;重排模型作用:對語義檢索結果的 Top K 條目進行二次排序,解決以下問題:
- 語義漂移: 檢索結果與意圖表面相似但實際無關;
- 多模態干擾: 圖文混合內容中的噪聲過濾;
- 長尾分布: 低頻但高相關性的內容提升權重;
-
重排模型: 重排模型名稱,與上述 SentenceTransformers 模式一致,建議手動下載;
5.5.3 檢索
- Top K: 語義檢索初步結果數量(需 ≥ 最終輸出條目);
- RAG 提示詞模板: 整合用戶提示詞和搜索到的知識庫內容,最終發送給大模型的消息內容模版;
5.5.4 文件
- 最大上傳大小: 每次聊天中上傳的文件最大大小(MB),不影響知識庫上傳的文件大小;
- 最大上傳數量: 每次聊天中上傳的文件最大數量,不影響知識庫上傳的文件數量(由嵌入層批處理大小控制);
5.5.5 集成
-
Google 云端硬盤: 集成 Google OAuth 客戶端,拉取客戶端中的文件作為知識庫(監聽文件變動事件,5分鐘間隔);
- 創建Google OAuth 客戶端: https://support.google.com/cloud/answer/6158849?hl=en;
- 修改 Open-WebUI 配置: 進入 Open-WebUI 內容器的 /app/backend/open_webui 目錄下,修改 config.py 文件;
- 重啟 Open-WebUI: 使用 docker 命令重啟 Open-WebUI 即可;
- 創建Google OAuth 客戶端: https://support.google.com/cloud/answer/6158849?hl=en;
-
OneDrive: 集成 OneDrive 客戶端,拉取客戶端中的文件作為知識庫(每日 2:00 全量同步);
5.5.6 危險區域
- 重置上傳目錄: 刪除知識庫中所有的目錄;
- 重置向量存儲/知識: 刪除知識庫中所有的文檔;
5.6 聯網搜索
支持豐富的搜索引擎,請參考官方文檔;
5.7 代碼執行
5.7.1 通用
- 功能定位: 用于在AI對話中直接運行大模型回答的代碼片段(如Python腳本);
- 啟用代碼執行器: 是否啟用代碼執行器;不啟用,將隱藏運行按鈕;
- 代碼執行引擎:
- Pyodide: 基于瀏覽器的 Python 運行時環境,無需服務器支持;
局限性:無法訪問本地文件系統,僅支持純 Python 庫; - Jupyter: 需配置 Jupyter Notebook 服務以實現完整代碼執行能力;
優勢:支持復雜計算、文件操作及第三方庫調用;
注: Jupyter 服務部署,請使用以下命令docker run -p 8888:8888 swr.cn-north-4.myhuaweicloud.com/ddn-k8s/quay.io/jupyter/tensorflow-notebook:cuda-latest
- Pyodide: 基于瀏覽器的 Python 運行時環境,無需服務器支持;
- 代碼執行超時時間: 達到超時時間(S),將終止代碼運行;
5.7.2 代碼解釋器
-
功能定位: 用于解析AI生成的代碼邏輯(如數學運算、數據處理);
-
啟用代碼解釋器: 是否啟用代碼解釋器;不啟用,將隱藏代碼解釋器按鈕;
-
代碼解釋引擎:
- Pyodide: 快速解析簡單代碼片段;
- Jupyter: 需連接服務以處理復雜邏輯分析;
-
代碼解釋器提示詞模板: 預置的提示詞模板用于規范AI生成代碼的格式與交互邏輯;示例模版:
def user_code():{user_input} # 用戶代碼占位符result = user_code()print(result)
5.8 界面
5.8.1 任務
-
設置任務模型: 用于對話標題和 Web 搜索查詢生成等任務的默認模型設置;它的默認模版為:
### Task: Generate a concise, 3-5 word title with an emoji summarizing the chat history. ### Guidelines: - The title should clearly represent the main theme or subject of the conversation. - Use emojis that enhance understanding of the topic, but avoid quotation marks or special formatting. - Write the title in the chat's primary language; default to English if multilingual. - Prioritize accuracy over excessive creativity; keep it clear and simple. ### Output: JSON format: { "title": "your concise title here" } ### Examples: - { "title": "📉 Stock Market Trends" }, - { "title": "🍪 Perfect Chocolate Chip Recipe" }, - { "title": "Evolution of Music Streaming" }, - { "title": "Remote Work Productivity Tips" }, - { "title": "Artificial Intelligence in Healthcare" }, - { "title": "🎮 Video Game Development Insights" } ### Chat History: <chat_history> {{MESSAGES:END:2}} </chat_history>
- 本地模型: 選擇一個 Ollama 部署的本地模型;
- 外部模型: 選擇與 OpenAI 兼容的終端節點外部模型;
-
標題生成: 是否開啟對話標題自動生成功能;
-
用于自動生成標題的提示詞: 自動生成對話標題的提示詞模版,也就是修改上述任務的默認模版;
-
標簽生成: 是否開啟對話標簽自動生成功能;它的默認模版為:
### Task: Generate 1-3 broad tags categorizing the main themes of the chat history, along with 1-3 more specific subtopic tags.### Guidelines: - Start with high-level domains (e.g. Science, Technology, Philosophy, Arts, Politics, Business, Health, Sports, Entertainment, Education) - Consider including relevant subfields/subdomains if they are strongly represented throughout the conversation - If content is too short (less than 3 messages) or too diverse, use only ["General"] - Use the chat's primary language; default to English if multilingual - Prioritize accuracy over specificity### Output: JSON format: { "tags": ["tag1", "tag2", "tag3"] }### Chat History: <chat_history> {{MESSAGES:END:6}} </chat_history>
-
標簽生成提示詞: 自動生成對話標簽的提示詞模版,也就是修改上述標簽的默認模版;
-
檢索查詢生成: 是否開啟文檔檢索(RAG)功能;
-
網頁搜索關鍵詞生成: 是否開啟聯網搜索查詢功能;
-
查詢生成提示詞: 用于根據對話內容檢測是否需要進行聯網搜索功能;它的默認模版為:
### Task: Analyze the chat history to determine the necessity of generating search queries, in the given language. By default, **prioritize generating 1-3 broad and relevant search queries** unless it is absolutely certain that no additional information is required. The aim is to retrieve comprehensive, updated, and valuable information even with minimal uncertainty. If no search is unequivocally needed, return an empty list.### Guidelines: - Respond **EXCLUSIVELY** with a JSON object. Any form of extra commentary, explanation, or additional text is strictly prohibited. - When generating search queries, respond in the format: { "queries": ["query1", "query2"] }, ensuring each query is distinct, concise, and relevant to the topic. - If and only if it is entirely certain that no useful results can be retrieved by a search, return: { "queries": [] }. - Err on the side of suggesting search queries if there is **any chance** they might provide useful or updated information. - Be concise and focused on composing high-quality search queries, avoiding unnecessary elaboration, commentary, or assumptions. - Today's date is: {{CURRENT_DATE}}. - Always prioritize providing actionable and broad queries that maximize informational coverage.### Output: Strictly return in JSON format: {"queries": ["query1", "query2"] }### Chat History: <chat_history> {{MESSAGES:END:6}} </chat_history>
-
輸入框內容猜測補全: 是否開啟輸入框內容自動補全功能;
-
輸入框內容猜測補全輸入最大長度: 自動生成自動完成的輸入長度;-1 表示無限制,正整數表示具體限制;
-
用于生成圖像提示詞的提示詞: 用于根據對話內容檢測是否需要生成圖像功能;它的默認模版為:
### Task: Generate a detailed prompt for am image generation task based on the given language and context. Describe the image as if you were explaining it to someone who cannot see it. Include relevant details, colors, shapes, and any other important elements.### Guidelines: - Be descriptive and detailed, focusing on the most important aspects of the image. - Avoid making assumptions or adding information not present in the image. - Use the chat's primary language; default to English if multilingual. - If the image is too complex, focus on the most prominent elements.### Output: Strictly return in JSON format: {"prompt": "Your detailed description here." }### Chat History: <chat_history> {{MESSAGES:END:6}} </chat_history>
-
工具函數調用提示詞: 用于根據對話內容檢測是否需要調用工具和函數功能;它的默認模版為:
Available Tools: {{TOOLS}}Your task is to choose and return the correct tool(s) from the list of available tools based on the query. Follow these guidelines:- Return only the JSON object, without any additional text or explanation.- If no tools match the query, return an empty array: {"tool_calls": []}- If one or more tools match the query, construct a JSON response containing a "tool_calls" array with objects that include:- "name": The tool's name.- "parameters": A dictionary of required parameters and their corresponding values.The format for the JSON response is strictly: {"tool_calls": [{"name": "toolName1", "parameters": {"key1": "value1"}},{"name": "toolName2", "parameters": {"key2": "value2"}}] }
5.8.2 界面
- 公告橫幅: 主頁面的橫幅提示配置(Markdown語法),效果如下:
- 默認提示詞建議: 用于開啟新會話時,默認提示詞模版建議,效果如下:
5.9 語音
5.9.1 語音轉文本設置
- 語音轉文本引擎:
- Whisper(本地): Open WebUI 內置了 faster-whisper,可查看Hugging Face使用相關模型:
建議手動下載到本地,然后放到到容器內的 /app/backend/data/cache/whisper/models 目錄下且以 models–Systran–faster–whisper 命令開頭;
- Deepgram: 實時流式處理語音平臺,可在 DeepGram官網 申請免費API key 和選擇模型;
- OpenAI: 通過 OpenAI 官方 API 或兼容接口(如硅基流動、訊飛星火等)接入云端模型;
- 網頁API: 使用當前瀏覽器的語音轉文本功能,需瀏覽器授權麥克風權限;
- Whisper(本地): Open WebUI 內置了 faster-whisper,可查看Hugging Face使用相關模型:
5.9.2 文本轉語音設置
- 文本轉語音引擎:
- 網頁API: 使用當前瀏覽器的文本轉語音功能,需選擇音色;
- Transformers(本地): Open WebUI 集成了 SpeechT5 和 CMU Arctic speaker embedding,可在 SpeechT5 和 CMU Arctic speaker embedding 選擇模型;
- ElevenLabs: 可在ElevenLabs官網 申請API key 和選擇模型;
- Azure AI: 可在Azure官網 申請API key 和選擇模型;
- OpenAI: 通過 OpenAI 官方 API 或兼容接口(如硅基流動、訊飛星火等)接入云端模型;
5.9.3 拆分回復
拆分模式 | 處理邏輯 | 適用場景 | API限制規避 |
---|---|---|---|
Punctuation | 按。!?切分 | 實時對話 | 避免單次請求超30s |
Paragraphs | 按空行切分 | 長文本朗讀 | 符合章節結構 |
無 | 原始文本 | 技術文檔 | 需前置分句處理 |
5.10 圖像
- 圖像生成: 是否開啟在對話中生成圖像功能;
- 圖像提示詞生成: 是否開啟生成圖像提示詞模版;開啟,將使用模版判斷是否生成圖像;不開啟,通過大模型判斷,這種情況,大模型需是多模態的;
- 圖像生成引擎: 可根據不同的引擎,配置參數,如下圖采用硅基流動的生圖模型配置為:
5.11 Pipeline
- Pipeline是本地開發函數與工具的調試窗口,我們放到工作空間部分一起講解。
5.12 數據庫
這里的數據庫主要是完成數據遷移功能,比如前期搭建了 Open-WebUI 測試環境且完成了配置調試,現在開始搭建正式環境且需要將測試環境中的配置數據同步到正式環境中;此時,先在測試環境中的數據庫欄選擇《導出配置信息至JSON文件中》會下載一個JSON文件,然后在正式環境中的數據庫欄選擇《導入JSON文件中的配置信息》選擇剛才導出的JSON文件,即可完成配置遷移;
六、總結
管理員面板的配置內容就到這里了,經過詳細配置,你的AI管理中樞已解鎖🎉🎉🎉
💡 趣味冷知識
當你在配置頁面點了第100次"保存"時,后臺代碼會偷偷播放一段《黑客帝國》經典BGM —— 不信試試看?🎵
🚧 下一站預告
《【2025保姆級】Open-WebUI五大功能區首曝!第二篇:工作空間區打造AI協作中樞,手把手搭建多模態作戰室&團隊協作全流程拆解》 即將上線!