1.docker-compose啟動ollama
按照 ollama docker-compose配置說明 配置并啟動ollama容器,啟動成功后,瀏覽器訪問 http://localhost:11434
如果顯示如下即代表成功
如果你的服務器支持GPU,可添加GPU參數支持,參考:https://hub.docker.com/r/ollama/ollama
2.Ollama指定要運行的模型
Ollama安裝完畢后,還需要繼續下載大模型,支持的大模型可以在 Ollama官網 找到。Ollama默認沒有提供WEB界面,需要通過命令行來使用,先輸入命令進入容器
# 進入容器
docker exec -it ollama /bin/bash # 指定ollama運行指定模型
# 第一次執行會自動下載模型1.5B 模型(大約1GB),下載完成后便可進入交互模式(命令行式對話)
# 也可直接只執行 pull 命令下載
ollama run deepseek-r1:1.5b# 或者只下載模型
ollama pull deepseek-r1:1.5b
3.RestFul訪問Ollama
curl http://localhost:11434/api/generate -d '{"model": "deepseek-r1:1.5b","prompt": "你好,世界!","stream": false
}'
Ollama常用命令
# 運行一個指定大模型
ollama run llama3:8b-text# 查看本地大模型列表
ollama list# 查看運行中的大模型
ollama ps# 刪除本地指定大模型
ollama rm llama3:8b-text