使用docker創建n8n服務后,工作流中不想用大模型付費API測試,想用本地大模型來跑,剛好電腦上裝了ollama,就試了下添加ollama節點來替代大模型付費API,結果就遇到了以下問題
ollama正常運行中
但是工作流會卡在這,提示n8n無法訪問http://localhost:11434,查了大量資料才最終解決
問題就是:在 Docker 環境中,N8N 容器訪問宿主機服務不能直接使用localhost或127.0.0.1。對于 Windows 系統,應使用host.docker.internal來代替localhost,所以在 N8N 工作流中,應將 Ollama 服務地址設置為http://host.docker.internal:11434。
所以,將http://localhost:11434改為http://host.docker.internal:11434就可以了