作者:叢霄、陸龜
概述:本文介紹如何使用 JManus 框架構建通用智能體應用,部署并運行在 Serverless 運行時,構建企業級高可用智能體應用的實踐經驗。基于阿里云 Serverless 應用引擎SAE 運行穩定高可用的智能體應用, 基于函數計算 FC 運行安全隔離的工具執行任務,實現最佳的 Serverless 智能體應用運行時。
JManus: 面向 Java 的企業級通用智能體框架
通用多智能體的企業級開發框架
JManus 是一個以 Java 為核心、完全開源的 OpenManus 實現,隸屬于 Spring AI Alibaba 項目。
它旨在讓 Java 程序員更便捷地使用 AI 技術,支持多 Agent 框架、網頁配置 Agent、MCP 協議和 PLAN-ACT 模式。項目在 GitHub 上已獲近 3k star,可集成多個大模型如 Claude 3.5 和 Qwen3。
JManus 的核心特點包括:
- 完美實現了 OpenManus 多 Agent 框架
借助 Spring AI 和 Java 的深度結合,開發者可以輕松構建和管理多個智能體,讓復雜任務的分工與協作變得高效且可控。 - JManus 無縫支持 MCP(Model Context Protocol)協議
Agent 不僅可以調用本地或云端的大語言模型,還能與各類外部服務、API、數據庫等進行深度交互,極大拓展了應用場景和能力邊界。 - JManus 原生支持 PLAN-ACT 模式
能夠讓 Agent 具備復雜推理、分步執行和動態調整的能力,適用于多輪對話、復雜決策、自動化流程等高階 AI 應用場景。
而隨著多智能體業務場景逐漸成熟,企業亟需 JManus 這樣的框架來構建通用的業務邏輯。Spring AI Alibaba 也在探索多智能體支持,滿足更多用戶的需要。
優秀的運行時性能
基于 Spring AI Alibaba 構建的智能體應用,相比于 Dify 等低代碼平臺構建的智能體具有明顯的性能和可用性優勢。
從 Dify 可視化界面一鍵導出 Spring AI Alibaba 工程。下圖展示了基于從 Dify 導出為 SAA 工程,運行模式性能前后的變化:可以看到,基于 Spring AI Alibaba 的智能體在運行性能上大幅領先 Dify 原生的智能體應用。
Dify 智能體壓測:
基于 Dify 導出的 Spring AI Alibaba 智能體應用壓測:
可見,Dify 適合在測試環境快速驗證想法,而生產環境推薦使用性能更好的 SAA Java 運行時。
SAE & FC:彈性高可用 Serverless 運行時
彈性高可用的智能體運行環境
在智能體應用的構建與運行中,傳統的低代碼平臺架構存在明顯瓶頸:所有智能體共享單一 Pod 資源,高流量場景下易導致性能干擾與資源爭用。而基于?JManus?與阿里云 SAE 的智能體應用,通過全棧 Serverless?能力,在高可用性、彈性擴展、性能優化與成本控制等方面展現出顯著優勢,為智能體應用的規模化落地提供堅實支撐。
基于 Serverless JManus 構建的智能體應用在高可用、彈性、性能方面具有以下明顯優勢:
1.?高可用性
- 隔離的網絡和資源環境:每個智能體應用運行在隔離的 VPC 網絡和資源隔離的安全容器中,不同智能體應用享有獨占的彈性資源,不會造成性能擠占問題。
- 多可用區部署:
智能體應用默認部署于多可用區,避免單點故障,保障數據鏈路的持續可用。 - 金絲雀發布與灰度流量驗證:
-
- 分批灰度發布:通過 SAE 內置的灰度發布策略,逐步將流量切至新版本,降低發布風險。
-
- 全鏈路灰度:集成?MSE 微服務治理,支持從網關到應用的全鏈路灰度流量控制,確保驗證過程無損。
- 無損上下線:
利用微服務治理能力,實現應用的平滑啟停,避免因版本切換導致的服務中斷。
2. 秒級彈性伸縮
- 多維度彈性策略:
根據?CPU、內存、QPS、RT 等指標自動觸發擴縮容,確保高并發場景下的服務穩定性。 - 毫秒級資源拉起:
SAE 支持秒級 Pod 啟動,快速響應突發流量,避免傳統架構因冷啟動導致的響應延遲。并針對 Pod 啟動階段進行了深入優化,減少調度和網卡掛載的延遲。
3. 極致性能
- 加速鏡像:
利用阿里云?DADI?技術,加速鏡像拉取與啟動,縮短應用初始化時間。 - Java Runtime 啟動加速:
特別針對 Java 應用,SAE 提供 JVM 快照、?類預加載、JIT 優化?等特性,顯著降低 JVM 啟動耗時。 - 長連接支持:
集成?CLB/NLB 網關,支持?keep-alive 模式,保障 SSE(Server-Sent Events)等長連接場景的穩定性,避免請求斷開。
工具執行安全隔離的沙箱
在智能體的工具調用或任務執行過程中,安全性和資源效率是兩大核心挑戰。為應對這一需求,函數計算通過其獨特的毫秒級冷啟動能力和彈性資源調度機制,為工具執行提供了理想的安全沙箱環境,同時結合?MCP 工具市場的生態支持,進一步提升了系統的可靠性和開發效率。
1. 安全沙箱的實現:隔離與防護
- 容器化隔離:
每個工具調用任務在 FC 中被封裝為獨立的容器實例,運行于輕量級虛擬機(VM) 中,確保任務之間資源隔離,避免因代碼缺陷或惡意行為導致的系統崩潰或數據泄露。 - 權限控制:
FC 支持細粒度的權限管理(如 IAM 角色綁定),限制容器對主機系統、網絡及存儲的訪問權限,防止越權操作。 - 運行時安全加固:
通過默認禁用高危操作(如文件系統寫入、進程創建)和強制使用只讀文件系統,進一步降低安全風險。
2. 極致彈性與按需付費
- 毫秒級冷啟動:
函數計算 FC ,能在毫秒級啟動容器實例,快速響應瞬時高并發請求,避免傳統服務器因預熱延遲導致的性能瓶頸。 - 彈性伸縮:
根據實時流量自動擴縮容,確保在空閑時段僅保留最小資源占用,而在流量高峰時動態分配更多計算資源,實現成本與性能的平衡。 - 按需計費:
僅對實際執行時間(按毫秒計)和資源消耗收費,避免閑置資源浪費,尤其適合智能體工具調用的間歇性高并發特性。
函數計算支持 MCP 市場,也可以一鍵部署多種 MCP 工具:
實戰示例
示例架構圖
部署 JManus 應用到 SAE
- 申請百煉的 OPENAI_API_KEY
- 來到 SAE 控制臺應用中心,選擇 JManus 模版部署 JManus 應用:https://saenext.console.aliyun.com/cn-hangzhou/scene-market
在部署界面,選擇對應的 VPC 網絡配置,填入 OPENAI_API_KEY,彈性公網可以選擇“新建彈性公網”。
配置好后點擊立即創建,即開始部署流程。
- 部署完成后,在計算巢服務實例“立即使用”這里可以找到能直接訪問的地址。
也可以在 SAE 控制臺微服務應用中看到 JManus 應用的公網訪問地址。
開發 MCP 服務并部署到函數計算
- 進入 Function AI 控制臺 MCP 市場。
https://functionai.console.aliyun.com/plugins?tab=plugins_platform&subtab=mcp
- 選擇實時天氣 MCP 服務,一鍵部署,部署完成后就可以得到可以遠端訪問的 SSE 地址。
JManus 自定義智能體和 MCP 配置
基于社區版的 JManus 也提可以直接配置 MCP 服務和創建智能體的能力,回到對話界面的“設置”,然后配置 MCP 服務。
在 JManus 的 MCP 配置上添加函數極端的 MCP 服務地址:
{"mcpServers": {"openwether": {"type": "sse","url": "https://defauxxx-xxxxxx.cn-shanghai-vpc.fcapp.run/sse", "timeout": 45000}}
}
創建智能體并為智能體配置工具:
配置好后,可以回到對話框,詢問天氣,可以看到智能體的工具調用的執行,返回了實時的天氣信息。
總結
本文展示了基于 Serverless 平臺 SAE Serverless 應用引擎和 FC 函數計算,作為 JManus 框架的運行時,能達到強強聯合的效果,滿足通用智能體開發的業務場景需求,又滿足企業生產級高可用的運行時環境。
并且基于 Serverless 安全容器,能滿足 browser use 等工具和代碼執行的安全隔離環境需求,是用戶基于云原生構建智能體應用的不二選擇。
未來 SAE 將和 Spring AI Alibaba 做更深入的集成,提供最佳 Java 智能體應用運行時。