Ver
V0.0 250216: 如何給WPS安裝插件用以支持其他大模型LLM
V0.1 250217: WPS的靈犀AI現在是DeepSeek R1(可能是全參數671B)
前言
? ? WPS也有內置的AI,叫靈犀,之前應是自已的LLM模型,只能說是屬于“能用,有好過無”,所以我一直在找能否在WPS上用上其他的LLM大語言模型,比如目前最火的DeepSeek,結論是:安裝OfficeAI助手,就能在WPS上用上其他的LLM了。
? ? 2025-2-17號,發現WPS靈犀AI的底座LLM已明確顯示是DS R1了。
Index
OfficeAI助手 - 免費辦公智能AI助手, AI寫作
OfficeAI助手插件(主要是下載、安裝、設置)
1、下載、安裝(自動安裝VC庫時有點慢)
OfficeAI助手 - 免費辦公智能AI助手, AI寫作? ?(在這里下載)
軟件版本: v0.3.15
軟件大小: 32MB
軟件授權: 免費
支持語言: 中文/英文
更新時間: 2025-2-14
系統平臺: Windows/Office/WPS
2、設置WPS信任第三方COM加載項才能在WPS中使用
默認情況下wps會阻止加載第三方插件,解決方法:
- 運行WPS,打開或新建任意文檔;
- 左上找到文件菜單->選項,在選項頁面中找到信任中心?:
- 勾上”受信任的加載項”(如沒找到下圖的選項,請將wps更新一下)
- 點“確定“保存對應設置,重開一般會顯示。如還是未顯示,重裝一下插件。
- 重啟WPS后出現"OfficeAI"
- 在WPS右側需要用微信掃碼后使用
3、設置使用的LLM大模型
(1)LLM默認是豆包的lite-32K(默認支持:豆包、百度、ChatGLM、通義)
? ? ?從綜合應用來說,這里推薦使用豆包的:doubao-pro-32K,Doubao-pro-32K 是一款兼顧性能與成本的中長文本處理模型,32K屬于中等偏長的上下文長度,平衡了性能與成本。若需更高性價比或超長上下文支持,可結合 Doubao-lite 或 Doubao-pro-128k 使用。
注:這里的32K的解釋
? ? 指模型的上下文窗口(context window)為32,000 tokens(支持?32K 上下文窗口(約 3.2 萬漢字),適合處理長文本推理和交互)。這一指標決定了模型單次處理文本的長度上限。32K的上下文能力允許模型處理更長的對話、文檔或代碼(例如分析長文章、撰寫報告、調試復雜代碼等),適合需要長文本記憶的場景。下表是一個直觀的模型類型映射到場景的說明:
模型類型 | 特點 | 適用場景 |
---|---|---|
Doubao-lite | 響應速度更快,成本更低(輸入 0.3 元/百萬 tokens) | 實時交互、簡單任務 |
Doubao-pro-128k | 支持 128K 上下文(約 12.8 萬漢字),適合超長文本分析 | 法律文檔、論文研讀 |
Doubao-vision | 多模態模型,擅長圖文理解 | 圖像描述、視覺問答 |
(2)使用DeepSeek
下面是我使用官網的KEY,模型用的是R1。
4、使用
OfficeAI助手簡介 | OfficeAI助手? (在線使用手冊)
附錄1:靈犀的底座模型的介紹(DS R)
附錄2:deepseek-chat和deepseek-reasoner的區別和使用場景
? ? deepseek-chat 和 deepseek-reasoner 是 Deepseek 平臺提供的兩種不同功能的模型,其區別和使用場景如下:
1. 核心區別
模型 | 功能定位 | 技術特點 |
---|---|---|
deepseek-chat | 通用對話與交互 | 面向自然語言對話場景,擅長生成流暢、連貫的文本回復,支持多輪對話和日常交流。 |
deepseek-reasoner | 邏輯推理與復雜問題解決 | 針對需要深度分析、邏輯推理的任務(如數學計算、代碼調試、決策支持等),強調結構化思考和精準輸出。 |
2. 使用場景對比
deepseek-chat
-
適用場景:
-
客服機器人(自動回復、用戶咨詢)。
-
日常閑聊、情感交流。
-
內容生成(如文案撰寫、故事創作)。
-
簡單信息查詢(天氣、新聞摘要等)。
-
-
示例任務:
-
用戶問:“推薦一部好看的電影。”
-
生成營銷文案:“為新產品寫一段吸引人的廣告語。”
-
deepseek-reasoner
-
適用場景:
-
數學/物理問題求解(如方程推導、幾何證明)。
-
代碼分析與調試(解釋代碼邏輯、修復錯誤)。
-
科學計算與數據分析(如統計推斷、數據建模)。
-
復雜決策支持(基于規則或數據的策略建議)。
-
-
示例任務:
-
用戶問:“如何用 Python 實現快速排序算法?”
-
解決數學題:“已知三角形三邊長為 3、4、5,求其面積。”
-
3. 選擇建議
-
選擇?
deepseek-chat
:
若任務以開放性對話、文本生成為主,無需深度邏輯分析,優先使用此模型。其響應更自然,適合交互性強的場景。 -
選擇?
deepseek-reasoner
:
若任務涉及結構化問題、數學/編程挑戰或需要分步推理,則選擇此模型。它更注重精準性和邏輯嚴謹性。
4. 技術配置差異
-
API_KEY 區分:兩者的 API 密鑰不同(如?
deepseek-chat
?vs.?i8e4eba839936
),可能對應不同的服務端接口或計費策略。 -
依賴組件:本地部署時可能需要安裝不同的依賴庫(如?
reasoner
?需數學計算庫支持)。
總結
-
對話優先選 Chat,推理優先選 Reasoner。
-
若任務邊界模糊(如既有對話又需推理),可嘗試結合兩者,或參考 Deepseek 官方文檔的混合調用方案。
-
建議通過實際測試驗證模型效果,或咨詢平臺技術支持以獲取更詳細的性能對比數據。