效果
TFChat項目地址
https://github.com/fish2018/TFChat
騰訊大模型知識引擎用的是DeepSeek R1,項目為sanic和redis實現,利用httpx異步處理流式響應,同時使用buffer來避免頻繁調用飛書接口更新卡片的網絡耗時。為了進一步減少網絡IO消耗,首次調用飛書相關接口會從redis讀取token,后續直接從TokenManager對象屬性獲取,只有token失效時間小于60s時才會重新調用飛書接口獲取。
實現思路
1.創建好騰訊大模型知識引擎應用和飛書應用并啟用機器人能力,配置事件訂閱
2.用戶發送消息給機器人后,會post數據給我們的webhook接口
3.webhook接收到數據后解析出用戶的open_id和發送給機器人的content
4.初始化消息卡片實例
5.發送消息卡片給該用戶
6.調用騰訊大模型知識引擎的HTTP SSE接口,提交用戶發送給機器人的content
7.接收HTTP SSE數據,調用飛書接口流式更新文本
參考資料
騰訊大模型知識引擎
創建應用
參考官方文檔操作即可:
https://cloud.tencent.com/document/product/1759/104201
騰訊大模型知識引擎>應用接口文檔>對話端接口文檔(HTTP SSE)
https://cloud.tencent.com/document/product/1759/105561
飛書機器人
創建應用
https://open.feishu.cn/document/home/develop-a-gadget-in-5-minutes/create-an-app
啟用機器人能力
https://open.feishu.cn/document/faq/trouble-shooting/how-to-enable-bot-ability
飛書卡片流式更新 OpenAPI 調用指南
https://open.feishu.cn/document/uAjLw4CM/ukzMukzMukzM/feishu-cards/streaming-updates-openapi-overview