寫在前面
想象一個場景:LLM Agent(如 AutoGPT、MetaGPT 或我們自己構建的 Agent)在規劃任務后,決定需要運行一段 Python 代碼來處理數據或調用某個 API。它不能直接在自己的環境中執行(通常不具備這個能力,也不安全),而是需要將這段代碼發送給一個專門的外部服務來執行,并取回結果。
這個外部服務,我們可以稱之為具備“Python 解釋器”功能的 MCP (Multi-Capability Platform) Server。更進一步,為了提供實時的執行反饋(例如,長時間運行任務的中間輸出、或者流式生成的數據),我們希望這個 Server 能夠通過 Server-Sent Events (SSE) 將結果流式地推送回 Agent。
本文將深入探討如何設計和實現這樣一個提供 Python 解釋器功能、并通過 SSE 流式返回結果的 MCP Server。