??每周跟蹤AI熱點新聞動向和震撼發展 想要探索生成式人工智能的前沿進展嗎?訂閱我們的簡報,深入解析最新的技術突破、實際應用案例和未來的趨勢。與全球數同行一同,從行業內部的深度分析和實用指南中受益。不要錯過這個機會,成為AI領域的領跑者。點擊訂閱,與未來同行! 訂閱:https://rengongzhineng.io/
早期互聯網發展的階段,人們或許還記得那片混亂景象——各種不同的協議和訪問方式交錯存在。直到HTTP(超文本傳輸協議)的出現,這一局面才得以改變。HTTP不僅僅是一個技術協議,更是標準化了客戶端(瀏覽器)與服務器之間的通信方式,解鎖了如今人們所熟悉的互聯互通的網絡世界。HTTP為信息自由流動提供了共同的語言。
時至今日,在人工智能革命迅猛發展的背景下,人們正在與越來越強大的大型語言模型(LLMs)和AI代理進行交互。然而,這種交互體驗往往顯得割裂。模型常常面臨幻覺、難以無縫整合實時信息與工具,以及在用戶授權下執行有用操作的困境。每一次請求,似乎仍然是孤立地被處理。
因此,一個關鍵問題浮現:人類是否正處于需要一種新基礎協議層來支撐AI交互的關口?像模型上下文協議(Model Context Protocol,簡稱MCP)這樣的協議,是否有可能成為AI時代中如同HTTP之于互聯網時代那般基礎的存在?
什么是模型上下文協議(MCP)?
模型上下文協議(MCP)是一個開放協議,旨在標準化應用程序向大型語言模型提供上下文的方式,以及AI助手如何連接到存儲數據的系統,例如內容庫、商業工具和開發環境。可以將其類比為AI應用程序的“USB-C接口”,為AI模型提供一種標準化的方式,連接到各種數據源和工具。其核心目標是讓LLMs和AI系統能夠訪問必要的上下文信息,從而生成更優質、更相關的響應。
MCP旨在解決模型與數據源孤立的問題。在過去,每接入一個新數據源,往往需要量身定制的集成工作;而通過MCP,一個統一、開放的標準將取而代之。
從技術上看,MCP促進了LLM應用程序(稱為主機,例如AI聊天界面或集成開發環境)與外部數據源和工具服務器之間的無縫整合。主機應用中包含維護與這些服務器連接的客戶端。通信則通過使用JSON-RPC 2.0消息的有狀態連接來完成。
MCP為以下方面提供了標準化框架:
-
共享上下文信息:向語言模型或用戶提供相關的數據資源。
-
暴露工具和功能:允許AI模型執行由服務器提供的功能或工具,前提是用戶明確同意以確保安全。
-
構建可組合工作流:使用模板化的消息(提示詞)來創建集成的工作流。
本質上,MCP希望用一種更簡單、可靠且可擴展的方式,取代當前支離破碎的集成方式,為AI系統提供安全的雙向數據訪問與功能操作。
HTTP類比:賦能革命
HTTP的偉大之處不僅僅在于其技術規范,更在于其作為創新催化劑的角色。通過創造一種簡單、標準化的方式來請求和接收網絡資源,HTTP催生了整個網絡生態系統。它為互聯網的建設鋪設了軌道。
MCP在AI領域被賦予了類似的潛力。正如語言服務器協議(LSP)標準化了編程語言在開發工具中的集成方式,MCP試圖標準化上下文和工具在AI應用生態系統中的整合方式。通過標準化上下文管理與通信,MCP有望:
-
解鎖有狀態且強大的AI:推動AI應用超越簡單的問答,發展為能夠持久、上下文感知、有效利用外部數據和工具的助手與應用。
-
促進互操作性:為不同AI模型、平臺和工具之間的上下文與能力通信創造共同基礎,增強切換LLM提供商的靈活性。
-
加速開發進程:為開發者提供標準化的構建模塊和越來越多的預制集成,而不必一遍遍發明定制解決方案。
正如HTTP讓信息在互聯網上得以普及,MCP有潛力通過更可持續的架構,推動復雜、集成化AI系統的普及與發展。
核心區別:起源與聚焦點
盡管潛在影響相似,MCP與HTTP之間存在明顯差異:
-
起源與目的:HTTP起源于鏈接與檢索靜態超文本文檔的需求;而MCP源于現代AI復雜需求,專注于讓LLM應用無縫整合外部數據源與工具,獲取所需上下文信息。
-
信息類型與交互模式:HTTP主要傳輸定義明確的資源(如HTML、JSON、圖片),采用無狀態的請求-響應模式;而MCP管理動態、演變的上下文信息,包括數據資源、可執行工具及工作流提示,并通過JSON-RPC 2.0建立有狀態的雙向連接。
-
架構設計:HTTP使用主要用于資源檢索的客戶端-服務器模型;而MCP采用特定的主機(LLM應用)、客戶端(主機內連接器)和服務器(提供上下文與工具)架構。
-
發展路徑:HTTP通過學術界及IETF等機構發展而來;而MCP由Anthropic發起并開源,并正以開放標準的形式由多個組織協作開發,靈感部分來自LSP等協議。
另一種類比:圖書館
還可以用圖書館來打比方:
HTTP就像使用老式氣動傳送管系統:
-
用戶填寫一張請求單,注明所需的特定書籍或文件(類似URL)。
-
把請求單放入傳送管(發起HTTP請求)。
-
圖書館管理員在某處找到并僅將請求的物品送回(HTTP響應)。
-
若需要另一本書或其他服務,則必須再次填寫并提交新請求。
而MCP則像通過現代標準化幫助臺系統與圖書館管理員互動:
-
用戶帶著研究目標來到幫助臺(AI應用或“主機”)。
-
管理員通過標準化的計算機接口(MCP)訪問所有圖書館資源與工具。
-
通過這一系統,他們可以:
-
搜索主目錄、專業數據庫與數字檔案(訪問資源/上下文);
-
操作打印機、掃描儀、縮微膠片閱讀器,甚至請求館際互借(使用工具);
-
訪問在線期刊和外部學術門戶(連接不同服務器);
-
記錄研究主題,基于持續的需求推薦相關材料(維護上下文);
-
引導完成整個研究過程(提示/工作流)。
-
關鍵在于,標準化的系統(MCP)讓管理員(AI主機)可以無縫協調多種信息資源和工具,幫助用戶完成整體目標,而不僅僅是單次信息檢索。
為什么MCP對開發者至關重要?
向上下文感知型AI轉變,直接影響著開發者能夠構建的內容。擁抱MCP意味著:
-
更豐富的用戶體驗:構建能夠使用外部工具和數據執行復雜任務的AI代理,打造真正互動的體驗。
-
提升效率與靈活性:接入預構建的集成,避免重復造輪子,且更容易切換LLM提供商。
-
安全性最佳實踐:采用最佳安全實踐訪問數據,確保MCP規范強調的數據安全與用戶同意原則得到落實。
-
開啟新型應用范式:實現生成式AI與實時數據、外部系統無縫融合的新型應用。
在Google Cloud上借助MCP構建未來
隨著這些新協議和模式的出現,擁有一個強大靈活的平臺變得尤為重要。Google Cloud為構建和部署下一代上下文感知AI應用提供了所需的工具與基礎設施:
-
智能模型與平臺:Vertex AI是Google Cloud的端到端AI平臺,不僅支持訓練、微調與部署強大的基礎模型,還提供Vertex AI Agents等工具,具備理解上下文、語言細節與編排復雜任務的能力——這些能力對于利用MCP理念至關重要。同時,Vertex AI提供Gemini、Imagen、Veo2和Lyria等一方基礎模型,以及如Claude、Llama、Gemma等豐富的第三方與開源模型庫。
-
可擴展、有狀態部署:在服務器端管理上下文或作為MCP中介,需要能夠高效處理狀態和擴展的基礎設施。Google Kubernetes Engine(GKE)支持StatefulSets,非常適合需要持久身份和存儲的負載,如用戶會話與上下文數據庫管理。
-
無縫數據與工具整合:MCP依賴于將模型連接到外部系統。Google Cloud提供了全面的數據庫(如Cloud SQL、Spanner、Firestore)、消息服務(如Pub/Sub)及API管理工具,使整合這些關鍵組件變得輕松高效。
未來展望
MCP是否會成為新的HTTP?或許不能以字面意義理解為直接取代,但從潛在影響層面來看,二者的相似之處令人印象深刻。
AI領域對標準化上下文管理的需求已經非常明顯。MCP作為一種通用、開放標準,有望取代當前碎片化的集成方式。無論未來是MCP本身,還是由一系列相關協議組成的體系,這一基礎通信層對于突破當前AI的局限性至關重要。對于希望打造真正互動、集成且智能的下一代應用程序的開發者而言,理解并為這一變革做好準備,將成為不可或缺的一步。