一、概述
本篇介紹如何在 macOS 環境下,基于 Dify 平臺自帶的網頁爬蟲插件工具,開發一個可以提取網頁內容并作答的 Agent 應用。通過使用內置插件,無需自定義開發,即可實現基本的網頁信息提取與智能體回答整合。
二、環境準備
1. 確認本地部署環境
確保以下環境已搭建并正常運行:
- 安裝并啟動 Docker Desktop
- 安裝并運行 Ollama(執行
ollama serve
) - 成功部署并訪問 Dify 平臺
2. 拉取支持 Function Calling 的模型
在終端執行以下命令,拉取 llama3.2:1b 模型:
ollama pull llama3.2:1b
拉取完成后,確認模型存在:
ollama list
輸出應包含:llama3.2:1b
3. 配置 Dify 接入 Ollama 模型
在 Dify 后臺「模型供應商」頁面新增模型配置:
- 模型類型:選擇「LLM」