一、初識大模型
1.1 人工智能演進與大模型興起:從A11.0到A12.0的變遷
AI 1.0時代(2012-2022年)
????????感知智能的突破:以卷積神經網絡(CNN)為核心,AI在圖像識別、語音處理等感知任務中超越人類水平。例如,2012年AlexNet在ImageNet競賽中取得突破性勝利,推動計算機視覺技術在各行業落地。
????????技術局限性:模型碎片化嚴重,依賴人工標注數據且泛化能力不足,導致應用成本高昂。例如,醫療領域需針對不同病種單獨訓練模型,形成數據孤島。
AI 2.0時代(2022年至今)
????????大模型范式革命:基于Transformer架構的預訓練大模型(如GPT-3、BERT)崛起,通過海量無標注數據自監督學習通用知識,實現“預訓練+微調”的跨領域能力。例如,GPT-3的1750億參數模型在零樣本學習任務中展現強大適應性。
????????多模態與邏輯推理:模型從單一文本向多模態融合進化,如OpenAI的Sora(2024年)實現文本生成視頻,展現物理世界模擬能力;GPT-4o(2025年)支持實時多模態交互,增強邏輯鏈生成能力。
1.2 應用場景的躍遷:從工具賦能到生態重構
垂直領域深度滲透
????????行業大模型興起:金融、醫療等領域通過微調基礎模型實現專業化。例如,DeepSeek-V3(2025年)通過MoE架構降低算力需求,加速企業部署;工商銀行利用大模型構建智能風控系統,欺詐識別準確率顯著提升。
????????生產力工具革新:生成式AI(AIGC)重構內容生產流程,如智能編程助手(GitHub Copilot)、低代碼開發平臺等,軟件開發效率提升30%。
終端智能化普及
????????端側設備升級:AI手機、AIPC等終端設備搭載輕量化模型,實現本地化推理。例如,AIPC需40TOPS算力支持本地多模態交互,AI手機通過邊緣計算保障隱私與實時性。
????????人機交互新范式:ChatGPT(2022年)引爆自然語言交互革命,智能體(Agent)逐步具備規劃、記憶和主動行動能力,如Project Astra(2025年)實現上下文感知與任務規劃。
1.3 生態系統的重構:開源共享與分布式創新
????????開源生態爆發:DeepSeek-V3(2025年)成為首個全開源大模型,推動技術共享;中國備案生成式模型達300余個,占全球36%。
????????分布式訓練突破:混合專家模型(MoE)、檢索增強生成(RAG)等技術降低訓練成本,例如某模型推理成本降至三十分之一,2025年分布式訓練有望加速模型迭代3倍。
????????政策與標準建設:中國《生成式AI服務管理暫行辦法》(2023年)規范應用邊界,歐盟《人工智能法案》強化倫理約束,全球技術競爭與治理體系同步推進。
1.4 挑戰與隱憂:技術狂飆下的平衡
????????算力與能耗:訓練GPT-3耗電1.287吉瓦時,相當于120個美國家庭年用電量,綠色AI技術(如液冷數據中心)成研發重點
????????數據安全與偏見:大規模語料隱含文化偏見,需通過外掛知識庫和規則約束減少“幻覺”;端側隱私保護依賴聯邦學習等技術
????????倫理與可控性:模型可解釋性(XAI)成為核心課題,例如聯合嵌入預測(JEPA)架構增強決策透明性,RLHF(人類反饋強化學習)機制優化價值對齊
1.5 未來趨勢:從AI 2.0向AGI的演進
????????認知流體化:多模態模型整合傳感器數據,實現“具身智能”,如人形機器人自主決策、工業質檢系統實時優化生產流程
????????自監督學習深化:利用未標注數據提升通用性,減少對人類知識體系的依賴,例如蛋白質結構預測模型AlphaFold2(2021年)推動突破
????????生態融合與普惠化:2027年預計超50%生成式AI為垂直領域模型,AI技術滲透率從互聯網向制造業、農業等傳統產業擴展,成為數字文明的基礎設施
1.6 總結
????????從AI 1.0到AI 2.0的變遷,本質是技術從“專用工具”向“通用智能平臺”的質變。大模型通過參數規模、模態融合與訓練效率的突破,重構了技術范式、產業生態與人機關系。未來,AI將不僅是效率工具,更是推動社會生產力躍遷的核心引擎,其發展需在技術創新與倫理治理間尋求動態平衡。
二、大模型核心原理
2.1 生成式模型與大語言模型
什么是生成式模型
????????生成式模型是一類能夠通過算法學習數據分布,并基于此生成新數據的人工智能技術。它的核心在于從已有數據中提取模式,創造出與訓練數據相似但全新的內容,涵蓋文本、圖像、音頻、視頻等多種模態。例如,生成對抗網絡(GAN)可生成逼真圖像,而擴散模型(Diffusion Model)擅長生成高質量的多模態內容。
技術特點
????????1. ?多模態生成能力:支持跨模態內容生成(如文本生成圖像、音頻生成視頻)。
????????2. ?創新性輸出:生成的內容可能在現實中沒有直接對應(如抽象藝術畫作)。
????????3. ?模型多樣性:包括GAN、VAE(變分自編碼器)、擴散模型等架構。
典型應用
- 圖像生成(DALL-E、Midjourney)
- 音樂創作(AIVA、Jukedeck)
- 視頻合成(RunwayML)
什么是大語言模型
????????大語言模型是生成式模型的一個子類,專注于自然語言處理任務。它通過海量文本數據訓練,學習語言的語法、語義和邏輯,具備文本生成、理解、推理等能力,典型代表包括GPT系列、BERT和LLaMA。
技術特點
- ?參數規模龐大:通常包含數十億至數萬億參數,捕捉復雜的語言規律。
- ?通用性與適應性:通過微調可應用于翻譯、問答、摘要等多種任務。
- ?Transformer架構:依賴自注意力機制處理長距離依賴關系。
典型應用
- 智能對話(ChatGPT)
- 代碼生成(GitHub Copilot)
- 知識問答與信息檢索
二者的區別與聯系
?維度 | ?生成式模型 | ?大語言模型 |
---|---|---|
?范圍 | 涵蓋多模態(文本、圖像、音頻等) | 專注于文本領域 |
?技術架構 | GAN、VAE、擴散模型等 | Transformer架構為主 |
?生成目標 | 創造全新內容,強調創新性 | 生成連貫、符合語境的文本 |
?數據需求 | 多模態數據(如圖像-文本對) | 大規模文本語料 |
?應用場景 | 藝術創作、虛擬現實、廣告設計 | 客服、翻譯、文本輔助 |
技術基礎重疊:
- 大語言模型本質上是生成式模型在文本領域的特化,兩者均依賴深度學習和概率建模。
- Transformer架構既是LLM的核心,也被用于生成式模型的文本生成模塊。
?互補性應用:
- 在復雜任務中可結合使用(如用LLM生成劇本,生成式模型生成配套視頻)。
- 生成式AI的多模態能力可擴展LLM的應用邊界(如文本生成圖像后進一步生成視頻)。
?訓練與優化共性:
- 均需大規模算力與數據,依賴分布式訓練技術(如混合專家模型MoE)。
- 面臨相似挑戰:數據偏見、能耗問題、倫理監管
2.2 Transformer 架構解析
為什么會用到Transformer
-
解決傳統模型的不足
- RNN/CNN的缺陷:傳統循環神經網絡(RNN/LSTM)和卷積神經網絡(CNN)在處理長序列時存在局限性:
- 無法并行計算:RNN需按順序處理序列,計算效率低;
- 長距離依賴問題:難以捕捉序列中相隔較遠的依賴關系(如長文本中的上下文關聯)。
- 注意力機制的優勢:Transformer完全基于注意力機制,摒棄了循環和卷積結構,通過自注意力(Self-Attention)直接建模序列中全局依賴關系,顯著提升長序列處理能力。
- RNN/CNN的缺陷:傳統循環神經網絡(RNN/LSTM)和卷積神經網絡(CNN)在處理長序列時存在局限性:
-
并行計算能力
- Transformer 的自注意力機制允許所有位置的計算同時進行,避免了序列處理的串行化,大幅加速訓練和推理,尤其適合大規模數據和模型。
-
泛化性和高效性
- 在自然語言處理(NLP)、計算機視覺(CV)等領域表現優異:
- NLP:如 ChatGPT、BERT 等模型通過 Transformer 實現高質量翻譯、文本生成;
- CV:如 Swin Transformer(窗口化自注意力)在圖像識別中平衡效率與性能;
- 其他領域:時間序列去噪、材料科學(CrystalTransformer)等場景均受益于其序列建模能力。
- 在自然語言處理(NLP)、計算機視覺(CV)等領域表現優異:
什么是 Transformer
Transformer 是一種基于注意力機制的深度學習架構,由 Vaswani 等人在 2017 年提出(論文《Attention Is All You Need》)。其核心思想是:
- 完全依賴注意力機制,無需循環或卷積結構。
- 編碼器-解碼器結構:
- 編碼器:將輸入序列(如文本、圖像塊)轉換為中間表示。
- 解碼器:根據編碼器的輸出生成目標序列(如翻譯結果)。
- 關鍵組件:
- 自注意力(Self-Attention):捕捉序列內部元素間的全局依賴關系;
- 位置編碼(Positional Encoding):為無序的注意力機制補充序列位置信息;
- 前饋網絡(FFN):對每個位置的特征進行獨立變換。
Transformer 架構宏觀解析
1. 核心結構:編碼器-解碼器
-
編碼器(Encoder):
- 子層:
- 自注意力層(Self-Attention Layer):計算序列中每個元素與其他元素的相關性,生成加權特征;
- 前饋網絡(FFN):對每個位置的特征進行非線性變換,增強表達能力。
- 層級堆疊:通常堆疊多層(如 6 層),每層參數獨立,逐層提取更抽象的特征。
- 子層:
-
解碼器(Decoder):
- 子層:
- 自注意力層:處理目標序列(如翻譯中的目標語言句子),確保生成的序列符合語法;
- 編碼器-解碼器注意力層(Encoder-Decoder Attention):關注編碼器輸出中與當前解碼位置相關的信息(如源語言中對應的部分);
- 前饋網絡(FFN):進一步優化特征。
- 掩碼機制:在解碼過程中屏蔽未來信息,確保生成過程的順序性。
- 子層:
2. 關鍵技術細節
-
自注意力機制:
- 通過計算 Query、Key、Value 的點積注意力權重,動態加權所有位置的輸入,捕捉長距離依賴。
- 多頭注意力(Multi-Head Attention):并行計算多個子空間的注意力,提升模型對不同位置關系的建模能力。
-
位置編碼:
- 由于注意力機制本身不包含位置信息,需通過可學習或固定的位置編碼(如正弦函數)補充序列順序。
-
層級化設計:
- 如 Swin Transformer 引入?窗口化自注意力(Window-based Self-Attention)?和?移位窗口機制,在視覺任務中平衡計算效率與局部特征建模。
2.3 關鍵技術解析
預訓練
定義與目標
預訓練是通過大規模無標注數據訓練模型,使其學習語言或圖像的通用特征、統計規律和基礎能力(如語法、語義、視覺模式等)。它是后續任務適應的基礎。
關鍵流程與技術細節
-
數據準備:
- 數據來源:互聯網文本(如新聞、書籍、論壇)、圖像庫(如ImageNet)等。
- 數據清洗:去除噪聲、重復內容、隱私信息,確保數據質量。
- 格式化處理:文本分詞、編碼(如Token化),圖像歸一化、增強等。
-
模型架構:
- 常用架構:Transformer(如BERT、GPT)、CNN(如ResNet)等。
- 參數規模:通常較大(如百億級參數),以捕捉復雜模式。
-
訓練目標:
- 自監督學習任務:
- 語言模型(LM)任務:如掩碼語言模型(MLM,預測被遮蔽的詞)或因果語言模型(CLM,預測下一個詞)。
- 圖像任務:如圖像重建、對比學習(Contrastive Learning)。
- 無監督學習:通過數據自身生成偽標簽,減少對標注數據的依賴。
- 自監督學習任務:
-
訓練策略:
- 使用大規模計算資源(如GPU/TPU集群)。
- 監控訓練過程,防止過擬合,確保模型泛化能力。
特點與優勢
- 數據效率:依賴海量無標注數據,成本低但訓練時間長。
- 遷移能力:預訓練模型可遷移到多種下游任務(如文本分類、圖像識別)。
- 基礎能力:為后續監督微調(SFT)和強化學習(RLHF)提供初始參數和特征表示。
監督微調 SFT(Supervised Fine-tuning)
定義與目標
SFT是基于預訓練模型,在特定任務的標注數據上進一步優化模型,使其適應具體任務(如問答、翻譯、圖像生成)。目標是提升模型在特定場景下的性能。
關鍵流程與技術細節
-
數據準備:
- 標注數據:需高質量的“輸入-輸出”對(如指令-響應對)。例如,人類專家或高質量LLM生成的示范回答。
- 數據多樣性:覆蓋任務的多個方面,避免過擬合。
-
模型選擇:
- 使用預訓練的通用模型(如BERT、GPT、ResNet)作為基礎。
-
微調策略:
- 學習率調整:通常采用較小的學習率,避免破壞預訓練參數。
- 批量大小與輪數:根據任務調整,平衡收斂速度與效果。
- 正則化:如Dropout、L2正則化,防止過擬合。
- 早停(Early Stopping):監控驗證集性能,提前終止訓練。
-
任務適配:
- NLP任務:文本分類、機器翻譯、問答系統。
- CV任務:圖像分類、目標檢測、圖像生成。
- 多模態任務:結合文本和圖像的聯合訓練(如文生圖)。
特點與優勢
- 任務針對性:直接優化特定任務的性能。
- 數據依賴:需要標注數據,但規模遠小于預訓練數據。
- 局限性:標注成本高,且依賴標注數據的質量。
基于人類反饋的強化學習 RLHF(Reinforcement Learning from Human Feedback)
定義與目標
RLHF通過人類偏好反饋優化模型,使其生成內容更符合人類價值觀(如安全性、有用性、倫理)。目標是解決SFT的局限性,提升模型的“對齊”能力。
關鍵流程與技術細節
-
階段劃分:
- 步驟1:監督微調(SFT):生成初步的對齊模型(如ChatGPT的SFT模型)。
- 步驟2:獎勵模型(RM)訓練:
- 數據收集:用SFT模型生成多個候選響應,由人類對響應進行排名或評分。
- RM訓練:將分類模型(如SFT模型)的輸出層替換為回歸層,學習從輸入-響應對中預測人類偏好分數。
- 步驟3:強化學習優化:
- 算法:使用近端策略優化(PPO)等算法,最大化獎勵信號的期望值。
- 流程:
- 輸入提示生成多個候選響應。
- RM為每個響應打分。
- 根據分數更新模型參數,使高分響應概率最大化。
-
關鍵技巧:
- KL散度約束:限制模型更新幅度,避免偏離SFT階段的穩定表現。
- 多輪迭代:反復生成、評估、優化,逐步提升模型對齊效果。
- 多維度獎勵:RM可同時評估事實性、無害性、流暢性等多維度指標(如DeepSeek的RM設計)。
-
實際應用:
- 對話系統:生成安全、有幫助的回復(如ChatGPT)。
- 圖像生成:提升文生圖的美學和圖文匹配度(如Seedream 2.0通過RLHF優化PE模型)。
特點與優勢
- 人類價值觀對齊:直接通過人類反饋優化模型行為。
- 數據效率:相比SFT,標注成本更低(排名比生成更高效)。
- 靈活性:可擴展到多模態任務(如圖像、文本聯合優化)。
三、大模型應用場景
1. 自然語言處理(NLP)
- 文本生成
- 應用場景:創作小說、新聞、劇本,智能寫作輔助工具生成初稿。
- 示例:通過GPT類模型生成連貫文本,如代碼生成、對話系統。
- 機器翻譯
- 應用場景:跨語言實時翻譯(如商務交流、多語言內容生成)。
- 示例:使用Transformer架構的MarianMT模型實現高質量翻譯。
- 問答系統
- 應用場景:智能客服、虛擬助手(如企業咨詢、知識庫問答)。
- 示例:DeepSeek大模型賦能的“青易問·云客服”提升政務服務交互體驗。
2. 醫療領域
- 輔助診斷
- 應用場景:分析醫療影像(X光、CT)輔助病變檢測,結合病史文本提供診斷建議。
- 示例:騰訊與邁瑞醫療聯合開發的“啟元重癥大模型”,將醫生工作效率提升超30倍。
- 藥物研發
- 應用場景:預測藥物分子結構、作用機制及副作用,加速研發流程。
- 示例:通過分析海量醫學文獻,縮短藥物研發周期。
- 健康管理
- 應用場景:提供個性化健康建議、慢性病管理。
- 示例:醫療咨詢數字人降低人工客服成本。
3. 金融領域
- 風險評估與信用評級
- 應用場景:分析財務數據、交易記錄,評估貸款風險。
- 示例:DeepSeek模型優化信貸決策流程。
- 智能投顧與投資決策
- 應用場景:分析市場數據預測趨勢,提供投資組合建議。
- 示例:結合新聞、財報數據輔助投資。
- 反欺詐與合規風控
- 應用場景:實時檢測交易欺詐,構建知識庫支持合規操作。
- 示例:容聯云通過大模型優化反欺詐質檢系統。
4. 教育領域
- 個性化學習
- 應用場景:動態生成學習路徑,針對知識盲區強化訓練。
- 示例:DeepSeek自適應學習系統使知識吸收效率提升40%。
- 智能輔導與資源生成
- 應用場景:自動批改作業、生成教學資源。
- 示例:希沃大模型將教師備課時間從2小時縮短至30分鐘,批改作業效率提升30%。
- 課堂互動
- 應用場景:實時反饋學生學習效果,生成個性化報告。
- 示例:希沃課堂智能反饋系統已生成超15萬份報告。
5. 工業與制造業
- 生產優化與質檢
- 應用場景:提升生產線效率、降低能耗。
- 示例:里工實業的自動化生產線效率提升30%,成本降低40%-60%;紡織印染企業效率提升33%。
- 供應鏈管理
- 應用場景:預測需求、優化庫存調度。
- 示例:機智云質檢方案在紡織行業節約30%人工成本。
- 安全生產
- 應用場景:實時監測風險,減少事故。
- 示例:遠正智能的鋁加工安全管理平臺降低53%安全事件報警。
6. 安全與應急
- 風險預警與救援
- 應用場景:災害現場態勢感知、機器人救援。
- 示例:安全大模型24小時運營,減少92%手動操作。
- 行為識別
- 應用場景:識別違規操作,預防安全事故。
- 示例:工業領域的安全行為識別系統。
7. 傳媒與娛樂
- 內容生成與推薦
- 應用場景:生成新聞摘要、短視頻腳本,個性化內容推薦。
- 示例:商湯“日日新V6”可分析《黑神話》游戲視頻生成高光片段及解說。
- 虛擬數字人
- 應用場景:虛擬主播、客服、教育助手。
- 示例:中國電信的數字人生成技術實現高精度人物復刻和全流式交互。
8. 能源與環保
- 需求預測與生產優化
- 應用場景:優化電網調度、提高可再生能源利用率。
- 示例:大模型預測風電、光伏波動,輔助電網平衡。
- 碳排放管理
- 應用場景:追蹤碳足跡,優化減排路徑。
- 示例:華能利用大模型提升清潔能源生產效率。
9. 政務與公共服務
- 智能審批與咨詢
- 應用場景:簡化行政審批流程,提升服務效率。
- 示例:青島“邊聊邊辦”AI場景將建筑許可審批交互體驗升級。
四、Prompt 提示詞
4.1 提示詞工程基礎
什么是提示詞(Prompt)
- 定義:提示詞是用戶輸入給AI模型(如大語言模型)的指令或問題,用于引導模型生成符合預期的輸出。它是人與AI交互的橋梁,直接影響結果的質量。
- 核心功能:
- 明確任務(如“寫一篇關于全球變暖的文章”);
- 提供上下文(如背景信息、格式要求);
- 指導輸出形式(如語言風格、結構)。
- 示例:
“請以環境科學家的身份,為政策制定者撰寫一份關于可持續發展的報告,涵蓋能源管理和廢棄物處理,要求語言簡潔、數據詳實。”
什么是提示工程
- 定義:提示工程是通過設計、優化和調整提示詞,最大化AI模型(如ChatGPT、GitHub Copilot)潛力的過程,確保輸出準確、相關且符合用戶需求。
- 核心目標:
- 提升輸出質量(減少歧義、提高準確性);
- 充分利用模型能力(如邏輯推理、創意生成);
- 降低交互成本(減少反復調整的次數)。
- 方法論:
- 結構化提示框架(如RTF框架:角色、任務、格式);
- 迭代優化(根據模型反饋調整提示詞);
- 結合示例或模板(通過示例明確輸出要求)。
Prompt的典型構成要素
- 指令(Instruction):
- 明確的任務描述,如“分析用戶反饋中的核心訴求”或“生成Python函數”。
- 上下文(Context):
- 背景信息或約束條件,如“以初中生水平講解量子力學”或“參考《Python編程入門》第3章”。
- 輸出指示(Format/Expectation):
- 格式要求(如表格、Markdown);
- 風格或內容限制(如“使用口語化中文,避免專業術語”)。
設置Prompt的通用技巧
- 明確性原則:
- 避免模糊指令(如“寫一篇好文章”→“寫一篇300字的科普文章,解釋氣候變化對極地動物的影響”);
- 使用具體動詞(如“分析”“比較”“生成”)。
- 結構化設計:
- 分解任務:將復雜問題拆解為子任務(如“先總結數據,再提出解決方案”);
- 框架應用:采用RTF框架(角色、任務、格式)或CAST框架(約束、受眾、規格)。
- 上下文與示例增強:
- 提供背景信息(如“用戶是新手程序員,需代碼注釋詳細”);
- 通過示例引導(如“請按以下格式列出步驟:1. ... 2. ...”)。
4.2 Prompt 調優
Prompt 調優的定義與目標
Prompt 調優 是通過優化輸入給大模型的提示詞(Prompt),提升模型輸出的準確性、一致性和質量的過程。其核心目標是:
- 解決模型輸出問題:如回答不一致、復雜任務處理能力差、對特殊表達識別不準確等。
- 最大化模型能力:通過結構化設計、示例引導、約束條件等,讓模型更高效地完成任務。
- 降低人工干預成本:減少反復調整提示詞的迭代次數,提升交互效率。
Prompt 調優的核心問題
常見問題包括:
- 回答準確性不足:模型對規則或約束的理解不一致(如客服禮貌用語判斷錯誤)。
- 復雜問題處理不穩定:多步驟任務易出現邏輯跳躍或遺漏關鍵信息。
- 特殊表達識別不一致:模型對不同表達方式(如口語化、專業術語)的適應性差。
- 輸出格式或風格不統一:模型生成的內容不符合用戶指定的格式或風格要求。
Prompt 調優的遞進式步驟
1. 初步調優:提升基礎準確性
- 方法:將模糊的口語化提示轉化為?結構化提示,明確規則和約束。
- 示例:
- 原始提示:
“客服回答中是否使用了禮貌用語?” - 調優后提示:
## 請根據以下標準判斷對話是否合規: - 客服是否使用了“請問”或類似的禮貌用語。 - 客服是否避免使用命令式語氣。 - 客服是否表達了對客戶問題的關心。
- 原始提示:
2. 進一步調優:解決復雜問題
- 方法:通過?分步驟引導?和?示例驅動,讓模型逐步處理復雜任務。
- 示例:
- 任務:編寫一個用戶注冊接口。
- 優化提示:
請按以下步驟完成任務: 1. 校驗請求參數必須包含 `email` 和 `password`。 2. 密碼長度需大于6,否則返回 HTTP 400。 3. 使用一致的 JSON 響應格式:`{ "status": "success/error", "message": str }`。 4. 添加數據庫插入邏輯的偽代碼。
3. 高級調優:強化模型能力
- 方法:結合?In-Context Learning (ICL)?和?元提示(Meta-Prompting),提升模型的推理和泛化能力。
- 示例:
- ICL 示例:
提供多個示例幫助模型理解任務,例如:**任務**:執行算術運算 **示例**: 輸入:2 + 3 → 輸出:5 輸入:(2 + 3) * 4 → 輸出:20 **當前問題**:輸入:(7 - 3) * 2 → 輸出:?
- ICL 示例:
Prompt 調優的關鍵技巧
1. 結構化設計
- 明確指令:使用?RTF框架(Role, Task, Format)或?CAST框架(Constraint, Audience, Specification)。
- 示例:
# 任務:生成一份春節主題的社交媒體文章 **角色**:社交媒體文案撰寫者 **任務**:創作一篇500字左右、溫馨風格的春節主題文章 **格式**:包含標題、3個段落,每段以節日習俗為例說明家庭團聚的重要性 **約束**:避免使用專業術語,語言口語化
2. 示例驅動(ICL)
- 方法:通過?正例?和?反例?明確輸出要求。
- 示例:
**任務**:判斷客服回答是否合規 **正例**: 輸入:“請問您需要進一步幫助嗎?” → 輸出:合規 **反例**: 輸入:“快點說清楚你的問題!” → 輸出:不合規(命令式語氣)
3. 明確約束與格式
- 約束條件:限制輸出的字數、風格或邏輯(如接口開發的安全要求)。
- 格式指示:要求模型以列表、表格或代碼塊形式輸出(如代碼生成任務)。
4. 分步驟引導
- 方法:將復雜任務拆解為子任務,逐步引導模型完成。
- 示例:
**任務**:解決數學問題 1. 理解問題:明確已知條件和目標。 2. 分析問題:選擇適用的公式或原理。 3. 計算過程:分步推導并驗證。 4. 得出結論:總結答案并檢查合理性。