在 Windows 10 上運行 Ollama 時遇到 llama runner process has terminated: exit status 2
錯誤,可能是由多種原因引起的。以下是逐步解決方案:
1. 檢查 Ollama 服務狀態
-
按
Win + R
輸入services.msc
,找到Ollama
服務,確保其狀態為 正在運行。 -
如果沒有運行,右鍵手動啟動;如果啟動失敗,嘗試重新安裝 Ollama。
2. 更新顯卡驅動(尤其是 NVIDIA/AMD)
-
此錯誤可能與 GPU 計算兼容性有關:
-
打開 設備管理器 > 展開 顯示適配器 > 右鍵顯卡選擇 更新驅動。
-
或前往顯卡官網下載最新驅動:
-
NVIDIA 驅動下載
-
AMD 驅動下載
-
-
3. 驗證模型完整性
-
刪除并重新拉取模型(以
llama2
為例):ollama rm llama2 ollama pull llama2 ollama run llama2
-
如果問題依舊,嘗試其他模型(如
mistral
),確認是否為模型特定問題。
4. 檢查系統環境變量
-
確保 Ollama 的路徑已添加到系統環境變量:
-
默認安裝路徑:
C:\Program Files\Ollama
。 -
按
Win + S
搜索 “環境變量” > 編輯 系統變量 中的Path
,添加 Ollama 的安裝路徑。
-
5. 關閉沖突軟件
-
臨時禁用殺毒軟件(如 360、火絨)或防火墻,某些安全軟件可能攔截 Ollama 的子進程。
-
確保沒有其他程序占用 GPU 資源(如游戲、深度學習任務)。
6. 以管理員身份運行
-
右鍵點擊命令提示符或 PowerShell,選擇 以管理員身份運行,再執行 Ollama 命令。
7. 查看詳細日志
-
獲取更詳細的錯誤信息:
ollama serve > ollama.log 2>&1
然后在新窗口運行模型,檢查
ollama.log
文件中的具體報錯(如 CUDA 版本不匹配、內存不足等)。
8. 重裝 Ollama
-
完全卸載后重新安裝:
-
卸載 Ollama。
-
刪除殘留目錄(如
C:\Users\<你的用戶名>\.ollama
)。 -
從官網下載最新版本安裝:Ollama 官網。
-
9. 檢查硬件兼容性
-
如果使用 GPU 加速,確認顯卡是否支持 CUDA(NVIDIA)或 ROCm(AMD):
-
運行
nvidia-smi
(NVIDIA)或rocminfo
(AMD)檢查工具是否正常輸出。
-
-
若顯卡不支持,嘗試強制使用 CPU 模式(性能會下降):
setx OLLAMA_NO_CUDA "1"
重啟終端后運行模型。
10. 系統依賴項
-
安裝 Visual C++ 運行庫和 .NET Framework:
-
下載 Visual C++ Redistributable。
-
確保 Windows 10 已更新至最新版本(設置 > 更新和安全)。
-
附:常見原因總結
原因 | 解決方向 |
---|---|
顯卡驅動不兼容 | 更新驅動或禁用 GPU 加速 |
模型文件損壞 | 重新拉取模型 |
權限不足 | 以管理員身份運行 |
內存/顯存不足 | 換更小模型或關閉其他程序 |
安全軟件攔截 | 臨時禁用殺毒軟件 |
如果以上步驟仍無法解決,請提供 ollama.log
中的關鍵錯誤信息進一步分析。