一、上下文學習
上下文學習強調在學習過程中考慮問題所處的上下文環境。
1.1 上下文學習的分類
- 零樣本(Zero-Shot)上下文學習
- 單樣本(One-Shot)上下文學習
- 少樣本(Few-Shot)上下文學習
1.2 示例選擇方法
兩個主要依據是相似性和多樣性。
- 直接檢索:然后選取排名靠前的K個示例。
- 聚類檢索:把所有示例劃分為K個簇,從每個簇中選取最為相似的示例,獲取K個示例。
- 迭代檢索:下一個示例的選擇依賴于當前的問題和已選擇的示例。
1.3 性能影響因素
- 預訓練數據:領域豐富度、任務多樣性、訓練數據的分布
- 預訓練規模:模型參數規模
- 演示示例:示例的數量和順序
二、思維鏈
2.1 兩種任務類型
(1)System-1任務
- 依靠直覺和經驗進行瞬間判斷。
- 隨著規模(參數量、訓練數據、算力)變大,模型性能顯著提升。
(2)System-2任務
- 運用邏輯分析、計算和有意識的思考來解決。
- 模型會出現“Flat Scaling Curves”現象——即模型規模增長未帶來預期性能提升。
2.2 思維鏈的定義
在提示中嵌入一系列中間推理步驟,引導大模型模擬人類解決問題時的思考過程,以提升模型處理System-2任務的能力。
2.3 思維鏈的分類
在標準COT方法上,出現了許多擴展方法,這些方法按照其推理方式的不同,可以歸納為三種模式:按部就班、三思而行、集思廣益。
按部就班模式
強調邏輯的連貫性和步驟的順序性。
代表方法:
- COT:手工構造(費時費力)例子,作為示例放入Prompt,引導模型一步一步推理。
- Zero-Shot COT:無需手工標注,只需提供簡單的提示,如“Let's think step by step”,引導模型自行生成一條推理鏈。
魔法咒語:Let's think step by step.
- Auto COT:聚類算法自動篩選相關樣本,Zero-Shot生成思維鏈內容作為示例,引導大語言模型生成針對用戶問題的推理鏈和答案。
不足:
- 局部:在思維過程中不會探索不同的后續內容,即樹的分支。
- 全局:順序鏈式輸出,不存在回溯的過程。
三思后行模式
強調審慎和靈活。
代表方法:
- Tree of Thoughts(TOT):將推理過程構造為一棵思維樹,允許模型在不確定時進行回溯和重新選擇。TOT從拆解、衍生、評估、搜索四個角度構造思維樹。
- Graph of Thoughts(GOT)
集思廣益模式
強調觀點和方法的多樣性。
代表方法:
- Self-Consistency:引入多樣性的推理路徑,從中提取并選擇最一致的答案。
- Universal Self-Consistency:利用LLMs自身選擇最一致答案,支持更多種任務,無需答案提取過程。
三、Prompt工程
3.1 Prompt規范
編寫規范的Prompt是與大語言模型進行有效溝通的基礎。一個標準規范的Prompt通常由任務說明、上下文、問題、輸出格式這幾個部分中的一個或幾個來組成。
3.2 Prompt技巧
- 復雜問題拆解
- 追問
- 適時使用COT
- 善用心理暗示:角色扮演or情景代入
3.3 Prompt工程應用
可以通過精心設計的Prompt激活大語言模型的內在潛力,而不需要對模型進行微調。Prompt已經在垂域任務、數據增強、智能代理等多個領域發揮出卓越性能。
(1)自然語言接口
- Text to SQL
- 代碼生成
(2)大模型支撐的數據合成
- Self-Instruct
(3)大模型增強的搜索引擎
(4)大模型賦能智能體
經典的智能體通常由大語言模型和四大模塊組成,分別是:配置模塊(Profile)、記憶模塊(Memory)、計劃模塊(Planning)、行動模塊(Action)。
單智能體僅包含一個智能體,交互相對簡單,適用于簡單任務。Prompt設計主要用于引導模型執行特定任務,且圍繞單個上下文。
多智能體包含多個智能體,每個智能體都設定有角色和任務,交互復雜度高。他們協調、合作、競爭,以實現共同或各自目標。
(5)大模型驅動的具身智能
大語言模型是AGI的智慧引擎,機器人是大語言模型走向真實世界的物理載體。
四、參考
bilibili:浙江大學-大模型原理與技術