前言
本篇博客想帶讀者進行一個智能體入門掃盲,了解基礎知識,為什么用camel呢,因為小洛發現它們文檔對這種智能體的基本組件介紹得很全面深入。
基礎概念
agent
一個典型的agent智能體包含三個核心部分:
- 感知模塊:處理輸入信息
- 決策模塊:制定行動計劃
- 執行模塊:實施具體行動
這三個模塊形成一個完整的循環,使智能體能夠持續有效地工作。
智能體的設計應該采用迭代開發的方式。首先實現基本功能,然后通過不斷的測試和反饋來完善系統。在此過程中,要注重收集和分析性能數據,根據實際運行情況調整設計參數和策略。這種漸進式的開發方法可以幫助我們建立一個更加穩健和高效的智能體系統。
通過遵循這些設計原則和方法,我們可以構建出既能完成特定任務,又具有良好可擴展性和維護性的智能體系統。這樣的系統不僅能夠滿足當前的需求,還能夠適應未來可能出現的新要求和挑戰。
Data Generation
數據生成模塊,這些模塊通過高級推理和指令調優技術實現高質量的訓練數據創建。
這些模塊包括:
- 思維鏈 (CoT):生成明確的推理路徑
- Self-Instruct:創建多樣化的指令跟蹤數據
- Source2Synth:將源代碼轉換為自然語言
- 自我提升 CoT:通過自我批判迭代細化推理鏈
思維鏈 (CoT)
Chain of Thought (CoT) 數據生成模塊實現了一個復雜的系統,用于通過聊天代理交互生成高質量的推理路徑。它結合了幾種高級算法來生成和驗證推理鏈。
主要特點:
- 用于解決方案探索的 Monte Carlo Tree Search (MCTS)
- 用于精確錯誤定位的二進制搜索錯誤檢測
- 用于質量保證的雙智能體驗證系統
- 用于跟蹤推理路徑的解決方案樹管理
Self-Instruct
模塊實現了一個pipeline,用于生成和管理機器生成的任務指令。它將人工編寫的種子指令與機器生成的種子指令相結合,以創建多樣化、高質量的任務指令,同時通過可配置的過濾機制確保質量。
主要特點:
- 使用可配置的比率將人工編寫的指令和機器生成的指令相結合
- 支持分類和非分類任務類型
- 內置指令過濾和驗證
- 任務的自動實例生成
- 基于 JSON 的數據輸入/輸出
Source2Synth
Source2Synth 是一個復雜的數據生成系統,旨在從源文本數據創建Multi-hop問答對。它實施了一個pipeline,用于處理原始文本、提取信息對,并生成具有可配置復雜性閾值的復雜多跳推理問題。
Multi-hop 在大模型領域指的是多步推理或多跳推理,它強調模型解決問題時,需通過多個步驟、中間推理或中間結果,逐步推導得出最終答案,而非僅通過單次計算或簡單檢索完成任務。
核心組件:用戶數據處理器
主要特點:
- 單個文本和批處理功能
- 可配置的 AI 模型或基于規則的處理
- 與 MultiHopGeneratorAgent 集成以生成 QA
- 隨機種子控制,確保可重復性
自我提升 CoT
自我改進的 CoT 數據生成管道實施一種迭代方法來生成和改進解決問題任務的推理跟蹤。這種實現基于自學推理的方法,其中 AI 代理通過自我評估和反饋來學習改進其推理過程。
pipeline包括四個主要階段:
- 初始推理跟蹤生成
- 自我評估
- 基于反饋的改進
- 迭代優化
Models
Model 是 Agent 的大腦,負責處理所有輸入和輸出數據。通過有效調用不同的模型,智能體可以根據任務需求執行文本分析、圖像識別和復雜推理等操作。
Messages
簡單來說,Agent的Message就是指系統中“智能體”或“代理者”之間互相傳遞的指令或數據包。就好比你給朋友發一條微信消息請他幫忙帶杯咖啡,在智能系統中,“Agent”則是那些負責完成任務的角色,而“Message”則是他們溝通和協作的工具。當一個Agent收到Message后,會根據內容做出決策、執行任務或回復信息。
Memory
Memory模塊提供了一個靈活而強大的系統,用于存儲、檢索和管理Agent的信息。它使座席能夠在對話中維護上下文,并從過去的交互中檢索相關信息,從而提高 AI 響應的連貫性和相關性。
Tool
模塊提供了一個靈活而強大的系統,用于存儲、檢索和管理 AI 代理的信息。它使座席能夠在對話中維護上下文,并從過去的交互中檢索相關信息,從而提高 AI 響應的連貫性和相關性。類似于 OpenAI Functions。
Toolkits: 工具包是旨在良好協同工作的工具集合。
Prompt
提示模塊指導 AI 模型生成準確、上下文相關和個性化的輸出。它包括各種提示模板和詞典,專為角色描述、代碼生成、評估、文本嵌入、錯位任務、對象識別等不同任務而設計。您還可以創建自己的提示來定制自己的 Agent。
關于這個部分可以去看我之前的關于提示詞的文檔。
runtime
runtime模塊允許在受控環境中執行函數和工具,從而實現代碼的安全和隔離執行。現代 AI 系統,尤其是那些涉及自主代理的系統,通常需要的不僅僅是一個簡單的 Python 解釋器。他們可能需要:
-
使用安全檢查執行代碼以防止惡意作。
-
在隔離環境中運行任務以管理依賴項或增強安全性(例如,使用 Docker)。
-
通過在遠程服務器上執行函數來分配計算負載或訪問專用資源。
-
對各種組件利用復雜的配置管理。
runtime 模塊通過提供運行時類和支持實用程序的集合來滿足這些需求。每個運行時都為代碼或函數執行提供了不同的策略,以滿足多智能體系統中的各種用例。
Task
任務是可以委派給代理并由該智能體解決的特定分配。任務代表比提示更高級別的概念,應由其他模塊(如 Planner 和 Workforce)進行管理。任務有兩個關鍵特征:
-
任務可以是協作的,需要多個智能體一起工作。
-
任務可以分解和發展。
Loaders
在大模型應用體系里,loaders(加載器)起著數據接入與格式轉換的關鍵作用。簡單來說,它就像是數據世界的 “翻譯官”,能將各式各樣來源與格式的數據,轉變為大模型能夠理解和處理的標準形式。
從功能上細分,大模型 loaders 具備兩大核心能力。
一方面,它承擔數據獲取的重任,支持從多元數據源讀取信息,像常見的本地文件系統中的文本文件、PDF 文檔、CSV 表格,還有網頁內容、數據庫數據、云端存儲數據等,均在其可讀取范圍內。舉例來說,當企業想要利用內部存儲在 CSV 文件里的銷售數據,借助大模型進行銷售趨勢分析時,loaders 就能從中提取數據。
另一方面,數據格式轉換是 loaders 的又一關鍵職能。由于大模型處理數據有特定格式要求,loaders 會把獲取到的不同格式數據,統一轉化為模型能接受的格式。比如將 HTML 網頁內容轉化為純文本格式,剔除其中冗余的標簽代碼,只保留文本信息,方便模型后續處理。
Storages
Storage 模塊是一個全面的框架,旨在處理各種類型的數據存儲機制。它由抽象基類和具體實現組成,同時滿足鍵值存儲和向量存儲系統的需求。
society
在大模型領域,society(社會模塊)是一個聚焦于模擬和研究智能體之間交互協作行為的核心組件,它為大模型賦予了類似人類社會交互、合作完成任務的能力。
Embeddings
為不同類型的數據(文本、圖像、視頻)創建嵌入涉及將這些輸入轉換為機器可以理解和有效處理的數字形式。每種類型的嵌入都側重于捕獲其各自數據類型的基本特征。
Retrievers
Retrievers 模塊本質上是一個搜索引擎。它旨在幫助您通過搜索大量文本來查找特定信息。想象一下,你有一個巨大的圖書館,你想找到提到某些主題或關鍵詞的地方,這個模塊就像一個圖書管理員,可以幫助你做到這一點。
Workforce
Workforce 是一個系統,其中多個代理人員協同工作以解決任務。通過使用 Workforce,用戶可以快速設置具有自定義配置的多代理任務解決系統。
camel
什么是camel
CAMEL (Communicative Agents for “Mind” Exploration of Large Language Models) 是一個開源的多智能體框架,專注于構建基于大語言模型的智能體交互系統。該框架通過角色扮演和結構化對話機制,實現智能體之間的有效協作。
安裝camel
官方介紹了幾種方法,但是小編還是喜歡用pip嘿嘿嘿
一條指令就行
pip install 'camel-ai[all]'
API 設置
我們的代理可以使用 OpenAI API 或您的本地模型進行部署。
使用 OpenAI API
訪問 OpenAI API 需要 API 密鑰。這里提供了針對不同作系統的說明。
類 Unix 系統 (Linux / MacOS)
echo 'export OPENAI_API_KEY="your_api_key"' >> ~/.zshrc# # If you are using other proxy services like Azure [TODO]
# echo 'export OPENAI_API_BASE_URL="your_base_url"' >> ~/.zshrc # (Optional)# Let the change take place
source ~/.zshrc
Replace ~/.zshrc with ~/.bashrc if you are using bash.
如果你正在使用 bash,請將 ~/.zshrc 替換為 ~/.bashrc。
Windows
如果您使用的是命令提示符:
set OPENAI_API_KEY="your_api_key"# If you are using other proxy services
# set OPENAI_API_BASE_URL="your_base_url" # (Optional)
如果使用的是 PowerShell:
$env:OPENAI_API_KEY="your_api_key"$env:OPENAI_API_BASE_URL="your_base_url" # (Optional)
Windows 上的這些命令將僅在該特定命令提示符或 PowerShell 會話的持續時間內設置環境變量。您可以使用 setx 或更改系統屬性對話框,以便在所有新會話中進行更改。
一般方法
在項目目錄中創建一個名為 .env 的文件,并使用以下設置。
OPENAI_API_KEY=<your-openai-api-key>
然后,在 python 腳本中加載環境變量:
from dotenv import load_dotenv
import osload_dotenv()OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")
使用其他 API
如果你正在使用其他非 OpenAI 提供的 API,可以通過使用ModelFactory的create方法創建不同的model,然后修改以下三個參數就可以做到調用不同的模型:model_platform、model_type、model_config_dict。
使用本地模型
如果您使用的是本地模型,可以使用 Ollama、vllm、SGlang等,這個系列后續會新開一個博客進行介紹。
結語
好的,本篇博客主要是對大模型一些基本概念進行介紹,后續會動手開始實踐幾個項目代碼,在干中學~小伙伴們可以期待一下下。