解密企業級大模型智能體Agentic AI 關鍵技術:MCP、A2A、Reasoning LLMs-docker MCP解析
這里面有很重要的原因其中一個很其中一個原因是因為如果你使用docker的方式,你可以在虛擬環境下就類似于這個沙箱的這個機制可以進行隔離。這對于安全,但另外一方面對資源的更有效的利潤帶來非常大的價值。還有一點就是大家可以看一下這個cloud flare MCP。大家可以看啊,這也是在你做企業級的這個產品的部署或者運維的時候,非常重要的一個平臺。關于這個cloud的flare 本身我就不說太多了。因為大家如果作為一個開發者,肯定是多少都會有所接觸的那我們使用MCP的時候,可以借助這樣的一個平臺,來完成他的隔離和資源的最有效的應用。大家可以看在這邊他談到all of,然后這邊MCP agent remote等等之類的,但這里面其實我們可以稍微看一下。
就是從這個cloud的flare的角度來講,它會基于他已有的云平臺給我們提供隔離。其實當然它也提供了一系列的功能支持。如果你從用戶的角度, 用戶要使用我們的AI應用程序到AI應用程序要使用MCP的功能。它會有MCP的這個客戶端 。這客戶端會通過MCP協議,就是model context protos和我們的MCP server進行溝通。
我們MCP server它作為相當一個沙箱或者隔離的環境,是在我們cloud flare上運行的,那在這里面,cloud flare給我們會提供很多,例如說這個安全認證等之類的一些功能。它也會提供一些定制化或者是增強的的一些功能。大家可以看這邊會有 workflow,然后這邊有 browser之類的,那我們的MCP server整個的這個API points或者說third party API and services進行溝通,所以我們在這里分享docker對MCP的支持,以及我們說的云平臺對MCP的支持。我相信大家應該也會立即想到另外一個對MCP支持非常非常強有力的平臺,大家應該知道是什么 ?是 GCP.
具體介紹一下 預訓練(Pre-training)?
預訓練(Pre-training):利用數十億到數萬億個token的龐大文本語料庫 對模型繼續 預訓練,使 模型能夠 根據提供的文本來預測「下一個單詞」