文章大綱
- 只要過一遍LLM的簡約版本
-
- 1 設計原理(一句話)
- 2 極簡數據流
- 3 最小依賴實現(本地 SQLite + OpenAI 兼容端點)
-
- 3.1 一次性準備:Excel → SQLite
- 3.2 關鍵詞提取 + 查表(正則 / SQL)
- 3.3 單次 LLM 調用
- 4 運行結果示例
- 5 性能 & Token 對比
- 6 可擴展點
- 7 參考實現鏈接
- 簡約升級版,支持結構化,非結構化數據源
-
- 1 設計總覽
- 2 最小依賴
- 3 代碼實現(可直接復用)
-
- 3.1 統一載入器
- 3.2 萬能查詢器
- 3.3 整合到單次 LLM 調用
- 4 使用示例
- 5 擴展方向(仍保持原生)
請根據上文,我想到了一種比google llm function-calling還簡單的辦法,無 RAG:Function-Calling 查表模式
仍然需要兩次經過llm ,而如果我們通過本地的查詢方式從日志關鍵詞,關鍵字段中映射excel 的key 獲取其關鍵內容【類似查詢數據庫】然后返回結果,進而豐富、完善進入llm 的prompt內容, 則只需要一次經過llm 就可以直接獲取根因分析的答案,更加簡潔、快速、準確,請根據我的設計完善方案和樣例代碼,給出原理,參考實現的鏈接
只要過一遍LLM的簡約版本
1 設計原理(一句話)
先拿日志關鍵詞做 確定性鍵值匹配(本地 dict/SQL),把 Excel 中對應行直接拼進 Prompt,再讓 LLM 一次性生成根因與建議;
減少一次 LLM 往返,Token 更低、延遲更低、準確率可控。
2 極簡數據流
日志原文 ──正則提取──? device_id, fault_code ──本地查表──? Excel 行│▼LLM Prompt = 日志 + Excel 行 ──? 根因+建議