來源:新年逼自己一把,學會使用DeepSeek R1_嗶哩嗶哩_bilibili
前言
? ? ? ? 對于DeepSeek而言,我們不再需要那么多的提示詞技巧,但還是要有兩個注意點:你需要理解大語言模型的工作原理與局限,這能幫助你更好的知道AI可完成任務的邊界;在和R1合作時,你最好有管理者的思維和經驗,你需要知道如何向R1這個聰明程度比你高很多的下屬布置你的任務。
? ? ? ? 如果不勾選深度思考這個選項,那么就是使用系統默認的V3大模型;最近(2025/2/6)因為網絡攻擊的問題,聯網搜索可能使用效果不佳,但事實上如果想要獲取的知識是在2023年12月之前的,那么就沒有打開聯網搜索的必要。
推理模型與指令模型
? ? ? ? OpenAI的ChatGpt、豆包和DeepSeek-v3都屬于指令模型(instruct model),而我們的深度思考R1屬于推理模型。instruct model這類模型是專門設計用于遵循指令來生成內容而推理模型是專注于邏輯推理問題解決的模型,能夠自主處理需要多步驟分析因果推斷或者復雜決策的這種任務。
理解大模型語言的本質
特點1
大模型在訓練時是將內容token化的,大模型所看到的和理解的世界和我們不太一樣。
大型語言模型的預訓練,本質上是讓模型建立文本片段之間關聯的規律,為了實現這個目標,所有給大模型投喂的數據資料都會經過特殊處理。首先是將文本切割名為token的基本單元;
然后將這些token轉換為數字編碼,有點類似于將現實世界的自然語言轉換為只有大模型才可以理解的“密碼本”;
由于這一種訓練方式,導致很多指令型大語言模型無法正確回答strawberry(草莓)這個單詞有幾個英文字母“r”。
因為strawberry被切割為了str、aw、berry三個toekn,隨后語言模型只數了str和berry的數字編碼。雖然推理模型可以做到這種功能,但實際過程也很麻煩。
特點2
大模型知識是存在截至時間的。最經典的例子:
對于大模型而言它的知識儲備存在三重壁壘,它的預訓練需要處理PB級別的原始數據,而這種原始數據的清洗需要經過大量的工序會占用非常多的時間。訓練完成之后,他還要經過監督微調強化學習以及基于人類反饋的強化學習等耗時工序。DeepSeek R1的知識庫訓練截止時間是在2023年的10月至12月之間,恰好是Faker選手奪取四冠之前。想要突破這些局限性,可以選擇聯網搜索、提供文獻和輸入提示詞等方法來解決。
特點3
大模型缺乏自我認知/自我意識
大模型既不能回應你叫他的具體名字,也無法回答你對它的詳細特點的提問。關于大模型的使用技巧,往往你也無法詢問他本身。
但是一些比較成熟的指令模型已經約束了常見的問答內容。
特點4
記憶有限(64K/128K)
大模型在對話過程中的上下文長度是受限的,R1現在只有64K長度的token。一次性投喂超過4萬字的文檔,它就只會通過RAG(搜索增強的方式)。
特點5
輸出長度受限(4K/8K)
單詞回答最多輸出2000-4000個中文字符
使用技巧
技巧1:提出明確的要求
技巧2:要求特定的風格
技巧3:提供充分的任務背景信息
技巧4:主動標注自己的知識狀態
技巧5:定義目標,而非過程
技巧6:提供AI不具備的知識背景
技巧7:從開放到收斂