拉取并運行 Ollama Docker 鏡像
使用以下命令從 Docker Hub 拉取 Ollama 鏡像并運行容器:
docker run -d -p 11434:11434 --name ollama ollama/ollama
-d
:以守護進程模式運行容器,即讓容器在后臺運行。-p 11434:11434
:將容器內部的 11434 端口映射到宿主機的 11434 端口,這樣你就可以通過宿主機的 11434 端口訪問 Ollama 服務。--name ollama
:為容器指定一個名稱,方便后續管理。ollama/ollama
:指定要運行的 Docker 鏡像。
下載 DeepSeek 模型
Ollama 支持加載多種模型,包括 DeepSeek。你可以使用以下命令下載 DeepSeek 模型:
docker exec ollama ollama pull deepseek-coder:33b-instruct
更具自己的配置選擇模型版本:?點擊查看對應版本?
使用 DeepSeek 模型進行推理
你可以使用 Ollama 的 API 或命令行工具與加載的 DeepSeek 模型進行交互。
docker exec ollama ollama run deepseek-coder:33b-instruct "寫一個簡單的 Python 函數,用于計算兩個數的和。"
到此已經部署完成!!