開源大型語言模型(LLMs)的興起使得創建 AI 驅動的工具比以往任何時候都更容易,這些工具可以與 OpenAI 的 ChatGPT Operator 等專有解決方案相媲美。在這些開源模型中,DeepSeek R1 以其強大的推理能力、自由的可訪問性和適應性而脫穎而出。通過將 DeepSeek R1 與 Browser Use 等工具相結合,您可以構建一個強大的、完全開源的 ChatGPT Operator 替代品,而無需花費數百美元進行高級訂閱。
本文將指導您完成設置 DeepSeek R1 和瀏覽器使用的過程,以創建能夠執行復雜任務的 AI 代理,包括 Web 自動化、推理和自然語言交互。
無論您是初學者還是經驗豐富的開發人員,本分步指南都將幫助您入門。
什么是 ChatGPT Operator,為什么需要開源替代品?
ChatGPT Operator 是 OpenAI 提供的一項高級功能,允許用戶創建能夠執行復雜任務的高級 AI 代理,例如推理、Web 自動化和多步驟問題解決。
ChatGPT Operator 每月收費 200 美元,這使得個人、小型企業或預算有限的組織更難獲得。
為什么需要開源替代方案?
雖然 ChatGPT Operator 功能強大,但它有幾個限制,使開源替代方案具有吸引力:
-
成本: 每月 200 美元的訂閱費對于許多用戶來說可能令人望而卻步。
-
數據隱私:使用專有 API 需要將數據發送到外部服務器,這可能不符合隱私政策或法規要求。
-
有限的定制:專有解決方案通常會限制微調或特定于任務的優化,從而限制它們對專業用例的適應性。
通過選擇 DeepSeek R1 和 Browser Use 等開源工具,您可以克服這些挑戰并解鎖以下幾個好處:
-
節省成本:DeepSeek R1 和 Browser Use 都是完全免費和開源的,無需訂閱費用。
-
完全控制:在本地或您自己的服務器上托管工具可確保完全的數據隱私和安全
-
可定制性:您可以針對特定任務微調模型,將其與其他工具集成,并修改系統以滿足您的獨特要求。
開源方法不僅可以減少對專有平臺的依賴,還可以讓您能夠構建針對您的需求量身定制的解決方案,同時保持對成本和數據的控制。
關鍵組件:DeepSeek R1 和瀏覽器使用
DeepSeek R1
DeepSeek R1 是一個針對推理任務優化的開源LLM軟件。它在思維鏈問題解決、編碼輔助和自然語言理解方面表現出色。它有多種尺寸(例如 1.5B、7B 參數)可供選擇,使其能夠適應不同的硬件功能。
瀏覽器使用
Browser Use 是一種開源工具,它使 AI 代理能夠執行基于瀏覽器的任務,例如 Web 抓取、表單填寫和自動導航。它提供了一個用戶友好的界面,可以與 DeepSeek R1 LLMs 等集成以增強功能。
第 1 步:設置您的環境
硬件要求
-
對于較小版本的 DeepSeek R1(例如,1.5B 參數),CPU 或中端 GPU (8GB VRAM) 就足夠了。
-
較大的版本需要高端 GPU(例如 NVIDIA A100 或 RTX 4090)。
操作系統
建議使用 Linux 或 macOS 以便于設置。Windows 用戶可以使用 WSL (Windows Subsystem for Linux)。
Python 環境
創建 Python 虛擬環境以隔離依賴項:
暫時無法在飛書文檔外展示此內容
安裝所需的庫:
暫時無法在飛書文檔外展示此內容
第 2 步:使用 API 運行 DeepSeek 或使用 Ollama 在本地運行
DeepSeek API 使用
要與 DeepSeek API 交互,請按照以下更新的步驟作:
獲取 API 密鑰:
在 DeepSeek 平臺上注冊并從 “API Keys” 部分生成 API 密鑰。請妥善保存此密鑰,因為它不會再次顯示。
進行第一次 API 調用:
DeepSeek API 與 OpenAI 的 API 格式兼容,因此很容易與現有的 OpenAI SDK 或軟件集成。下面是一個 Python 實現的示例:
暫時無法在飛書文檔外展示此內容
示例: 如果您更喜歡使用 cURL,請按以下步驟發出請求:
暫時無法在飛書文檔外展示此內容
型號選擇:
-
為 DeepSeek-R1 指定
model=“deepseek-reasoner”。
-
將
model=“deepseek-chat”
用于通用聊天任務。
對于與 OpenAI 兼容的配置,也可以將 base_url
設置為 https://api.deepseek.com/v1
,但 /v1
路徑與模型版本無關。
使用 Ollama 在本地運行 DeepSeek
Ollama 簡化了在本地計算機上運行 DeepSeek-R1 等大型語言模型的過程。以下是正確設置和使用它的方法:
-
安裝 Ollama:
從其官方網站下載并安裝 Ollama。
-
拉取所需的模型:
使用以下命令下載 DeepSeek-R1 的特定版本:
暫時無法在飛書文檔外展示此內容
-
在本地運行模型:
下載后,使用以下命令運行模型:
暫時無法在飛書文檔外展示此內容
這將啟動一個交互式會話,您可以在其中直接與模型交互。
型號變體:
DeepSeek 提供了幾個基于 Qwen 和 Llama 架構的提煉版本,針對不同的用例進行了優化:
DeepSeek-R1-Distill-Qwen-7B:
暫時無法在飛書文檔外展示此內容
DeepSeek-R1-Distill-Llama-70B:
暫時無法在飛書文檔外展示此內容
硬件注意事項:
-
1.5B 或 7B 等較小的型號可以在消費級 GPU 甚至 CPU 上運行。
-
較大的型號(例如 70B)需要具有大量 VRAM 的高端 GPU(例如 NVIDIA A100 或 RTX 4090)。
-
通過 API 進行交互式聊天:
Ollama 提供了一個 API,用于將本地運行的模型集成到您的應用程序中:
暫時無法在飛書文檔外展示此內容
第 3 步:安裝 Browser Use
Browser Use 使您的 AI 代理能夠與 Web 瀏覽器交互。請執行以下步驟:
-
安裝
從 GitHub 克隆 Browser Use 存儲庫:
暫時無法在飛書文檔外展示此內容
-
配置
設置瀏覽器使用 WebUI:
暫時無法在飛書文檔外展示此內容
在瀏覽器中打開 WebUI 以配置代理設置。您可以指定:
-
LLM模型(例如 DeepSeek R1)
-
瀏覽器設置(例如,窗口大小)
第 4 步:結合使用 DeepSeek R1 和瀏覽器
要創建集成這兩種工具的功能性 AI 代理,請執行以下作:
代理配置
修改 Browser Use 中的代理設置,使其與 DeepSeek R1 連接:
暫時無法在飛書文檔外展示此內容
運行代理
啟動 DeepSeek R1 和瀏覽器使用:
暫時無法在飛書文檔外展示此內容
一旦這兩項服務都運行起來,代理就可以自主執行填寫表單、抓取數據或導航網站等任務。
第 5 步:及時工程以獲得更好的結果
要優化 AI 代理的性能,請使用提示工程技術。例如:
通用提示模板
暫時無法在飛書文檔外展示此內容
此結構可確保清晰度并提高任務執行準確性。以下是一些您可以通過運行來嘗試的演示:
暫時無法在飛書文檔外展示此內容
示例 1
提示:在 Google Docs 中寫一封信給我爸爸,感謝他所做的一切,并將文檔保存為 PDF。
示例 2
提示:查找往 北京 的 kayak.com 航班,時間從 2024.12.25 到 02.02.2025。
示例 3
提示:閱讀我的簡歷并找到ML工作,將它們保存到一個文件中,然后在新的標簽頁中開始申請它們,如果你需要幫助,就問我。
結論
通過將 DeepSeek R1 與瀏覽器使用相結合,您可以構建一個功能齊全的 ChatGPT Operator 替代方案,該替代方案免費、開源且高度可定制。這種設置不僅可以節省成本,還可以讓您完全控制數據隱私和系統行為。
無論您是自動化 Web 任務、構建對話代理,還是嘗試使用 Retrieval-Augmented Generation 等高級 AI 功能,本指南都提供了您入門所需的一切。立即擁抱開源的力量,創建您自己的智能助手!
Deepseek API 直接調用教程
如果 API Key 有了之后,我們就可以調用它了,通過 Apifox 集成 Deepseek API,可快速完成 API 調試。
第一步:填寫 API Key
獲得 API 密鑰后,你可以在 API 文檔中開始使用它,無需編寫代碼:
-
訪問由 Apifox 創建的 DeepSeek 在線 API 文檔。
-
打開 Apifox 桌面:點擊頁面上的「Run in Apifox」,在彈出的窗口中點擊「在桌面上打開」,引導你進入 Apifox 的桌面版本(如果你尚未下載該應用程序,則需要先下載)。
下載最新版 Apifox
-
輸入你的 API 密鑰:打開文檔后,在 Apifox 中選擇一個接口,點擊「Auth」,選擇「Bearer Token」。然后復制之前創建的令牌,將其粘貼「Token」上密鑰保存在本地,因此不存在泄露風險。
還有一種方法設置 API Key,在項目右上角的 “環境管理” 中,點擊“正式環境”,這個環境變量的值就是上面創建的 Deepseek API 的 API Key,添加完成后保存即可。
第二步:調用 API
-
點擊“發送”即可調用 API。如果調用成功,API 響應將顯示在下面的頁面中。
-
修改 Body 中的 messages 里的信息,你就可以實現不同的對話。
-
如果要實現流式輸出,可以將 stream 的值改為
true
。
💡
通過指定
model='deepseek-chat'
即可調用 DeepSeek-V3。 通過指定model='deepseek-reasoner'
,即可調用 DeepSeek-R1。