Manus技術架構、實現內幕及分布式智能體項目實戰 線上高級實訓班
模塊一:解密Manus分布式多智能體工作原理和架構內幕
? 基于Claude和Qwen的大模型智能體Manus為何能夠迅速成為全球討論熱度最高、使用體驗最好、產業界最火爆的大模型智能體產品?
? Manus中為何選擇在云端virtual compute environment異步asynchronous執行任務?
? Manus背后的MCP為何是Stateful分布式智能體架構的最佳開源實現?
? Manus中的multi-agent架構下的專門化的specialized sub-agents設計和實現解析
? Manus中的29個工具Tools分析
? 遵循產品設計minimalist的Manus產品實現背后的多模型驅動機制詳解
? Computer use for automating operations原理詳解
? Manus’s Computer窗口實現機制詳解
? Manus任務執行狀態和進度管理技術及實現解析
? Manus中的Notification機制詳解
? Multi-Agent分布式智能體系統工作流程全生命周期詳解
? Manus的九大核心模塊功能剖析
? 為何Manus需要多個不同大模型來驅動?
? Manus具體依賴哪些大模型?背后的根源是什么?
? 為何Manus必須使用大模型post-training技術?
? Manus如何減少大模型幻覺Hallucination?
? Manus全生命周期流程十二大階段詳解
? Manus為何必須使用Claude系統技術?
? Manus為何使用Alibaba開源的Qwen?
? 解密Manus對虛擬機的目錄管理最佳實踐
? Manus的動態質量檢測及執行優化技術詳解
? Manus分布式智能體架構對失敗處理的方式詳解
綜合案例:OpenManus源碼實現詳解及為何OpenManus效果和Manus相差猶如天壤之別
模塊二:大模型Agent Computer Use能力的技術內核詳解與源碼實現 ? Claude 3.7大模型操作Docker虛擬機演示及分析
? 大模型Computer Use操作電腦原理詳解
? 大模型直接進行Computer Use面臨的三大核心問題剖析
? 為何說精確的進行“ Training Claude to count pixels”是關鍵?
? Claude是Computer Use API詳解
? 大模型多模態與computer use screenshot下what/how/when
? Claude在模型技術層面是如何實現從 instructions到command轉換的?
? Claude是如何在進行Computer Use時自動進行self-correct and retry tasks的?
? Computer Controlling Agent為何需要Docker等controlled environment?
? Agent行動空間: Screenshot, Drag, Click, Move, Type, Key等詳解
? Claude Computer Use源碼SYSTEM_PROMPT詳解
? Claude Computer Use源碼Agentic sampling loop逐行解讀
? Claude Computer Use源碼screenshots詳解
? Claude Computer Use源碼cache breakpoints詳解
? Claude Computer Use源碼screenshots詳解
模塊三:解密Manus智能體操作電腦和網頁技術內幕及源碼實現 ? Manus智能體Computer Use中定義的16種Action詳解
? Manus智能體Computer Use中Tool全生命周期流程解析及源碼實現
? 解密Manus智能體Computer Use中通過BaseComputerTool來定義Agent和screen, keyboard, and mouse之間的交互行為及源碼實現詳解
? Manus智能體 Computer Use中的filesystem editor tool源碼實現詳解
? Manus智能體 Computer Use中運行shell commands源碼實現詳解
? Manus智能體 Computer Use中Bash Tool及Session管理源碼實現詳解
? Manus智能體中Browser Use中browser factory原理及源碼實現詳解
? Manus智能體中Browser Use中DOM Management源碼實現詳解
? Manus智能體中Browser Use中BrowserContext源碼實現詳解
? Manus智能體中Browser Use中UI元素交互類別及源碼實現詳解
? Manus智能體中Browser Use中Controller導航和搜索功能源碼實現詳解
? Manus智能體中Browser Use中Text處理源碼實現詳解
? Manus智能體中Browser Use中Prompt類別及源碼實現詳解
? Manus智能體中Browser Use中 Response Rules剖析
? Manus智能體中Browser Use中Text處理源碼實現詳解
? Manus智能體中Browser Use中Message管理源碼實現詳解
? Manus智能體中Browser Use中Task管理源碼實現詳解
? Manus智能體中Browser Use中Action管理源碼實現詳解
? Manus智能體中Browser Use中Trajectory管理源碼實現詳解
模塊四:Manus智能體工程實現的秘密武器: Model Context Protocol (MCP)協議詳解與實戰
? 為何說MCP是Agent AI在架構和通信方面最大的開源突破?
? 基于 client-server的MCP五大核心元素及架構詳解
? 為何業界最火爆的Agentic產品例如Cursor采用MCP驅動?
? 為何說Claude開源的 Model Context Protocol是Manus的秘密武器?
? MCP Hosts核心組件及運行機制
? MCP Clients核心組件及運行機制
? MCP Servers核心組件及運行機制詳解
? MCP SSE的重大價值及實現源碼分析
? 案例:動手實戰 MCP Server
? 案例:動手實戰MCP Client
? 經典MCP Server分析
? 案例:MCP Debugging全生命周期流程實戰
? 案例:MCP Inspector全生命周期流程實戰
綜合案例:MCP協議逐行解析
模塊五:Manus智能體MCP Server內核及通信協議源碼實現 ? MCPServer運行機制及源碼逐行解讀
? MCP Server的 asynchronous運行機制及源碼實現
? MCP Server的ServerSession運行機制及源碼實現
? MCP Server的LifespanContextT運行機制及源碼實現
? MCP Server的Context運行機制及源碼實現
? MCP Server的PromptManager運行機制及源碼實現
? MCP Server的ResourceManager運行機制及源碼實現
? MCP Server的ToolManager運行機制及源碼實現
? MCP Server的Subscription運行機制及源碼實現
? MCP Server的Notification運行機制及源碼實現
? MCP Server的progress_notification運行機制及源碼實現
? MCP Server下的SSE架構及源碼實現
? MCP Server的MemoryObjectReceiveStream運行機制及源碼實現
? MCP Server的MemoryObjectSendStream運行機制及源碼實現
? MCP Server的 Server-Sent Events (SSE) transport運行機制及源碼實現
? MCP Server的Stdio Server Transport運行機制及源碼實現
? MCP Server的Web Socket運行機制及源碼實現
綜合案例:MCP Server Python實現整個模塊源碼逐行解讀及可改進點分析
模塊六:Manus智能體技術 MCP 實現Stateful大模型智能體狀態管理及源碼詳解 ? MCP Server如何支持任意復雜度的State Management?
? MCP Client如何支持任意復雜度的State Management?
? MCP Lifecycle中的狀態管理對Agent智能體的重大意義剖析
? MCP Completion中的Message Flow詳解
? MCP中的Ping、Cancellation、Progress詳解
? MCP HTTP with SSE的狀態管理詳解
? MCP Messages中的Requests狀態管理詳解及源碼實現
? MCP Messages中的Responses狀態管理詳解及源碼實現
? MCP Messages中的Notifications狀態管理詳解及源碼實現
? MCP Progress Flow全生命周期流程分析
? MCP Transports定制詳解
? MCP Roots的重大意義及工程實現詳解
? MCP Sampling及Message Flow詳解
? MCP下的 namespacing剖析
? MCP下的 topology awareness詳解
模塊七:大模型企業級Agentic-based應用技術的十大核心技術解析 ? 大模型Agent智能體基礎性技術Function Calling詳解與實現
? 基于Function Calling的Tool Calling技術詳解與實現
? ReAct技術詳解、源碼實現及其在LangGraph中的實現
? 大模型Agent智能體基于Session的Memory管理技術詳解
? 大模型Agent智能體基于User的Memory管理技術詳解
? 大模型Agent智能體 self-editing memory技術介紹
? 大模型Agent智能體實現Unified/Unlimited狀態管理技術詳解
? 大模型Agent智能體并行技術、數據管理技術詳解
? 分布式大模型Agent智能體Multi-Agent框架原理與技術介紹
? 大模型Agent智能體Human-in-the-Loop原理與技術介紹
綜合項目: DeepResearch Canvas 是一個多步信息查詢助手,通過檢索增強生成和并行子查詢技術,系統化獲取信息,適用于學術研究、企業知識管理和復雜查詢任務,顯著提升研究效率。
模塊八:Agent AI底層技術LLM大模型微調SFT及模型Function Calling內幕解密
? Continual Pretraining及Supervised Fine-tuning生產落地環境的決策標準是什么?
? Instruction-finetuning及Classification-finetuning
? 微調Selected Layers解析及Last Layers在語義(nuanced linguistic pattern)和模式識別(task-specific feature)內幕及代碼解析
? 如何解決GPT-like模型Classification-finetuning的Loss不可導問題?
? 調整模型結構以適配Classification-finetuning原理、流程和代碼實現
? Instruction fine-tuning技術解密及Llama 3.1/3.2 微調實戰
? How to mask out instruction tokens in finetuning?
? 詳解Stanford Alpaca: An Instruction-following LLaMA Model
? 詳解基于ShareGPT真實人類對話數據集的Vicuna
? Instruction的三大最佳實踐及Instruction Template詳解
? 面向單任務和多任務的微調技術及案例實戰
? 對Finetuned Responses評估三種方式解析及自動化實踐
綜合項目:大模型微調實現Function/Tools Calling功能案例
模塊九:工業級分布式Agent智能體框架狀態管理State和Memeory詳解 ? State Management 技術詳解:短期、中期、長期狀態的區分與實現。
? Memory Schema 的持久化設計:用戶檔案與任務記憶管理。
? LangGraph Store 的記憶存儲優化:高效的數據存取策略。
? 多模態數據的狀態集成:從結構化數據到非結構化數據。
? Self-editing Memory 實現:記憶實時更新與數據清理機制。
? 多狀態切換與調度策略:Task-Oriented 的管理方案。
? 多智能體間的記憶共享:在協作中的關鍵技術。
? State Reducers 的動態應用:優化狀態更新與路由決策。
? RAG(Retrieval-Augmented Generation)與記憶的整合。
綜合項目:基于Self-editing Memory技術完成持續的更新的User Profile, User Preference,及Task Agenda大模型智能體
模塊十:大模型智能體Human-in-the-Loop技術詳解 ? Human-in-the-Loop 的核心技術:用戶交互與反饋閉環設計。
? 動態斷點 (Breakpoints) 技術:優化調試與開發流程。
? Streaming 與異步技術應用:實時用戶體驗的提升。
? Time Travel 功能設計:狀態快照的捕獲與回溯。
? 用戶反饋與狀態更新機制:提高智能體的適應性。
? Map-Reduce 框架在 UX 中的應用:提升任務處理效率。
? 高效界面交互設計中的記憶集成。
? 異步 Streaming Assistant 的開發與案例分析。
? AIMessage 與 HumanMessage 的多場景應用。
綜合項目: Creative Canvas 是一個通過 AI 輔助創作和記憶管理的智能協作平臺,支持 Markdown 實時渲染與版本控制,適用于創意寫作、代碼開發和團隊協作,提升創作效率與內容質量。
模塊十一:Manus智能體大模型底層內核強化學習PPO/DPO解密及大型綜合案例實戰 ? PPO算法核心和原理
? Reward Model底層數學模型 Bradley–Terry model推導
? Reward Trainer中的Linear Projection模塊
? Reward Model構建全生命周期詳解
? Reward Model Loss及KL Divergence Loss解密
? 數據集Dataset分析:Preference Dataset
? 數據集Dataset分析:Prompt Dataset
? 使用RLHF對齊模型Pipeline分析
? Instruction定義策略
? Reward Model訓練
? 什么時候適合使用SFT后的模型作為基礎Reward Model?
? Direct Preference Optimization (DPO)原理
? 從RLHF優化目標到DPO優化目標詳解
? DPO中的關鍵算法組件
? DPO數據處理策略詳解
? DPO的損失函數和優化策略
? DPO實現流程剖析
? DPO源碼實現
? DPO與LoRA案例實現源碼解析
綜合項目:使用PPO/DPO等實現垂直醫療/法律/金融等領域適配對齊案例源碼逐行解析,實現包括增量預訓練、有監督微調、RLHF(獎勵建模、強化學習訓練)和DPO(直接偏好優化)。提供完整PT+SFT+RLHF全階段串起來訓練的pipeline及基于知識庫文件的LLM問答功能
模塊十二: Manus智能體安全護盾——全鏈路Constitutional AI與對齊解密 ? Constitutional AI (CAI)反饋機制:采用基于“憲法”原則的反饋,確保模型在LLM各階段嚴格遵循核心準則。
? Supervised Learning (SL)微調:利用SL階段對初始模型進行細致微調(finetune),奠定高質量輸出的堅實基礎。
? Red Teaming Prompts設計:制定具挑戰性的“Red Teaming”提示,主動誘導模型生成潛在有害樣本。
? Red Teaming樣本生成:通過提示促使模型輸出多樣化且具代表性的不良內容樣本。
? Red Teaming樣本采集:系統收集生成的多樣風險樣本,為后續優化提供全面數據支持。
? Response-Critique-Revision流程:采用“回應—批判—修正”三步流程對模型輸出進行嚴格評估與改寫。
? 初步對齊模型構建:完成SL階段后形成Finetuned SL-CAI Model,作為安全對齊的初始版本。
? Constitutional AI Feedback機制:進一步利用憲法反饋(Self-Improvement)優化模型輸出,增強防范不良內容的能力。
? 偏好模型訓練 (PM):通過對比與打分候選回答,訓練出Preference Model評估輸出符合憲法準則的程度。
? RL from AI Feedback (RLAIF)應用:利用偏好模型評分作為獎勵信號,對模型進行強化學習,實現輸出對齊最大化。
? PM + SL-CAI整合:在強化學習過程中融合SL階段的對齊能力與PM反饋,持續迭代優化模型。
? 全鏈路反饋迭代:通過多輪RL和反饋循環,實現從初步對齊到持續自我改進的閉環優化。
? 輸出嚴格合規:借助Response-Critique-Revision流程和RL反饋,確保生成的答案符合憲法原則。
? 模型自適應提升:通過Constitutional AI Feedback和RL from AI Feedback機制,不斷提升模型對風險內容的識別與防范。
? Final RL-CAI Model生成:完成全鏈路強化學習后,生成兼具高可靠性和防范能力的Final RL-CAI Model,輸出高質量合規回答。