1.Prompt Engineering 提示詞工程
Prompt 給人工智能模型輸入文本或指令,這些指令引導模型生成特定的輸出
Prompt Engineering:指在使用生成式人工智能模型(比如gpt-4)時,設計優化輸入文本(prompt)的過程,以便獲得期望的輸出
好的Prompt Engineering=提好的問題=包含好答案的上下文(參考)=好的答案
prompt 決定模型的輸出質量
token
1. 什么是 token?
Token 是大模型處理文本的基本單位,可以是一個字、一個詞、一個子詞,甚至是一個標點符號。
例如,英文句子 I love AI! 可能被分成 4 個 token:I、love、AI、!。
中文通常一個漢字就是一個 token,但也可能按詞切分。
2. Token 的作用
模型不會直接處理原始文本,而是先把文本分割成 token,再將 token 轉換為數字(向量),輸入到模型中。
模型的輸入、輸出、最大長度等,都是以 token 為單位計算的。
3. Token 數量的意義
計費:很多大模型的 API(如 OpenAI GPT)按 token 數量計費。
長度限制:模型有最大 token 長度限制(如 4096、8192、32000 等),超出會被截斷或報錯。
推理速度:token 越多,推理越慢,消耗資源越多。
Zero-shot
few-shot
思維鏈(可以說一步一步思考關鍵詞,并且每一步做出解釋可以完成COT)
通用知識Prompt 給出知識庫
Prompt 分片2. chat Completions, memory(記憶)Json Mode
3. Funciton Calling
4. Fine-tunning 實戰
5. 檢索增強生成(RAG Graph Rag)
6. 本地部署開源模型