文章目錄
- 前提條件
- 1. RuoYi-AI 已成功部署并運行
- 2. Ollama 本地大模型已安裝
- 1. 配置本地大模型
- 2. 切換至本地模型
- 3. 開始對話
- 總結
本文將詳細介紹如何在
RuoYi-AI
中集成本地
Ollama
大模型,使系統能夠在 離線環境 下提供智能對話能力。
前提條件
在開始集成本地大模型之前,請確保滿足以下要求:
1. RuoYi-AI 已成功部署并運行
如果尚未完成本地環境搭建,請參考:RuoYi-AI 本地部署流程。
2. Ollama 本地大模型已安裝
Ollama
是一款支持本地部署的 AI 大模型推理框架
,需先安裝并下載相應的模型文件。
若尚未安裝,可參考:Ollama高效、功能齊全的LLM大模型服務工具。
通過ollama list查看本地模型
1. 配置本地大模型
首先,在 RuoYi-AI
管理界面 中進行模型配置,確保系統能夠正確調用本地 AI 模型。
在 運營管理 > 系統模型 中?