一、LLM 大語言模型初窺:起源、概念與核心原理

一、初識大模型

1.1 人工智能演進與大模型興起:從A11.0到A12.0的變遷

AI 1.0時代(2012-2022年)

????????感知智能的突破:以卷積神經網絡(CNN)為核心,AI在圖像識別、語音處理等感知任務中超越人類水平。例如,2012年AlexNet在ImageNet競賽中取得突破性勝利,推動計算機視覺技術在各行業落地。

????????技術局限性:模型碎片化嚴重,依賴人工標注數據且泛化能力不足,導致應用成本高昂。例如,醫療領域需針對不同病種單獨訓練模型,形成數據孤島。

AI 2.0時代(2022年至今)

????????大模型范式革命:基于Transformer架構的預訓練大模型(如GPT-3、BERT)崛起,通過海量無標注數據自監督學習通用知識,實現“預訓練+微調”的跨領域能力。例如,GPT-3的1750億參數模型在零樣本學習任務中展現強大適應性。

????????多模態與邏輯推理:模型從單一文本向多模態融合進化,如OpenAI的Sora(2024年)實現文本生成視頻,展現物理世界模擬能力;GPT-4o(2025年)支持實時多模態交互,增強邏輯鏈生成能力。

1.2 應用場景的躍遷:從工具賦能到生態重構

垂直領域深度滲透

????????行業大模型興起:金融、醫療等領域通過微調基礎模型實現專業化。例如,DeepSeek-V3(2025年)通過MoE架構降低算力需求,加速企業部署;工商銀行利用大模型構建智能風控系統,欺詐識別準確率顯著提升。

????????生產力工具革新:生成式AI(AIGC)重構內容生產流程,如智能編程助手(GitHub Copilot)、低代碼開發平臺等,軟件開發效率提升30%。

終端智能化普及

????????端側設備升級:AI手機、AIPC等終端設備搭載輕量化模型,實現本地化推理。例如,AIPC需40TOPS算力支持本地多模態交互,AI手機通過邊緣計算保障隱私與實時性。

????????人機交互新范式:ChatGPT(2022年)引爆自然語言交互革命,智能體(Agent)逐步具備規劃、記憶和主動行動能力,如Project Astra(2025年)實現上下文感知與任務規劃。

1.3 生態系統的重構:開源共享與分布式創新

????????開源生態爆發:DeepSeek-V3(2025年)成為首個全開源大模型,推動技術共享;中國備案生成式模型達300余個,占全球36%。

????????分布式訓練突破:混合專家模型(MoE)、檢索增強生成(RAG)等技術降低訓練成本,例如某模型推理成本降至三十分之一,2025年分布式訓練有望加速模型迭代3倍。

????????政策與標準建設:中國《生成式AI服務管理暫行辦法》(2023年)規范應用邊界,歐盟《人工智能法案》強化倫理約束,全球技術競爭與治理體系同步推進。

1.4 挑戰與隱憂:技術狂飆下的平衡

????????算力與能耗:訓練GPT-3耗電1.287吉瓦時,相當于120個美國家庭年用電量,綠色AI技術(如液冷數據中心)成研發重點

????????數據安全與偏見:大規模語料隱含文化偏見,需通過外掛知識庫和規則約束減少“幻覺”;端側隱私保護依賴聯邦學習等技術

????????倫理與可控性:模型可解釋性(XAI)成為核心課題,例如聯合嵌入預測(JEPA)架構增強決策透明性,RLHF(人類反饋強化學習)機制優化價值對齊

1.5 未來趨勢:從AI 2.0向AGI的演進

????????認知流體化:多模態模型整合傳感器數據,實現“具身智能”,如人形機器人自主決策、工業質檢系統實時優化生產流程

????????自監督學習深化:利用未標注數據提升通用性,減少對人類知識體系的依賴,例如蛋白質結構預測模型AlphaFold2(2021年)推動突破

????????生態融合與普惠化:2027年預計超50%生成式AI為垂直領域模型,AI技術滲透率從互聯網向制造業、農業等傳統產業擴展,成為數字文明的基礎設施

1.6 總結

????????從AI 1.0到AI 2.0的變遷,本質是技術從“專用工具”向“通用智能平臺”的質變。大模型通過參數規模、模態融合與訓練效率的突破,重構了技術范式、產業生態與人機關系。未來,AI將不僅是效率工具,更是推動社會生產力躍遷的核心引擎,其發展需在技術創新與倫理治理間尋求動態平衡。

二、大模型核心原理

2.1 生成式模型與大語言模型

什么是生成式模型

????????生成式模型是一類能夠通過算法學習數據分布,并基于此生成新數據的人工智能技術。它的核心在于從已有數據中提取模式,創造出與訓練數據相似但全新的內容,涵蓋文本、圖像、音頻、視頻等多種模態。例如,生成對抗網絡(GAN)可生成逼真圖像,而擴散模型(Diffusion Model)擅長生成高質量的多模態內容。
技術特點
????????1. ?多模態生成能力:支持跨模態內容生成(如文本生成圖像、音頻生成視頻)。
????????2. ?創新性輸出:生成的內容可能在現實中沒有直接對應(如抽象藝術畫作)。
????????3. ?模型多樣性:包括GAN、VAE(變分自編碼器)、擴散模型等架構。
典型應用

  • 圖像生成(DALL-E、Midjourney)
  • 音樂創作(AIVA、Jukedeck)
  • 視頻合成(RunwayML)

什么是大語言模型

????????大語言模型是生成式模型的一個子類,專注于自然語言處理任務。它通過海量文本數據訓練,學習語言的語法、語義和邏輯,具備文本生成、理解、推理等能力,典型代表包括GPT系列、BERT和LLaMA。

技術特點

  • ?參數規模龐大:通常包含數十億至數萬億參數,捕捉復雜的語言規律。
  • ?通用性與適應性:通過微調可應用于翻譯、問答、摘要等多種任務。
  • ?Transformer架構:依賴自注意力機制處理長距離依賴關系。

典型應用

  • 智能對話(ChatGPT)
  • 代碼生成(GitHub Copilot)
  • 知識問答與信息檢索

二者的區別與聯系

?維度?生成式模型?大語言模型
?范圍涵蓋多模態(文本、圖像、音頻等)專注于文本領域
?技術架構GAN、VAE、擴散模型等Transformer架構為主

?生成目標創造全新內容,強調創新性

生成連貫、符合語境的文本

?數據需求多模態數據(如圖像-文本對)

大規模文本語料

?應用場景藝術創作、虛擬現實、廣告設計

客服、翻譯、文本輔助


技術基礎重疊

  • 大語言模型本質上是生成式模型在文本領域的特化,兩者均依賴深度學習和概率建模。
  • Transformer架構既是LLM的核心,也被用于生成式模型的文本生成模塊。

?互補性應用

  • 在復雜任務中可結合使用(如用LLM生成劇本,生成式模型生成配套視頻)。
  • 生成式AI的多模態能力可擴展LLM的應用邊界(如文本生成圖像后進一步生成視頻)。

?訓練與優化共性

  • 均需大規模算力與數據,依賴分布式訓練技術(如混合專家模型MoE)。
  • 面臨相似挑戰:數據偏見、能耗問題、倫理監管

2.2 Transformer 架構解析

為什么會用到Transformer

  1. 解決傳統模型的不足

    • RNN/CNN的缺陷:傳統循環神經網絡(RNN/LSTM)和卷積神經網絡(CNN)在處理長序列時存在局限性:
      • 無法并行計算:RNN需按順序處理序列,計算效率低;
      • 長距離依賴問題:難以捕捉序列中相隔較遠的依賴關系(如長文本中的上下文關聯)。
    • 注意力機制的優勢:Transformer完全基于注意力機制,摒棄了循環和卷積結構,通過自注意力(Self-Attention)直接建模序列中全局依賴關系,顯著提升長序列處理能力。
  2. 并行計算能力

    • Transformer 的自注意力機制允許所有位置的計算同時進行,避免了序列處理的串行化,大幅加速訓練和推理,尤其適合大規模數據和模型。
  3. 泛化性和高效性

    • 在自然語言處理(NLP)、計算機視覺(CV)等領域表現優異:
      • NLP:如 ChatGPT、BERT 等模型通過 Transformer 實現高質量翻譯、文本生成;
      • CV:如 Swin Transformer(窗口化自注意力)在圖像識別中平衡效率與性能;
      • 其他領域:時間序列去噪、材料科學(CrystalTransformer)等場景均受益于其序列建模能力。

什么是 Transformer

Transformer 是一種基于注意力機制的深度學習架構,由 Vaswani 等人在 2017 年提出(論文《Attention Is All You Need》)。其核心思想是:

  1. 完全依賴注意力機制,無需循環或卷積結構。
  2. 編碼器-解碼器結構
    • 編碼器:將輸入序列(如文本、圖像塊)轉換為中間表示。
    • 解碼器:根據編碼器的輸出生成目標序列(如翻譯結果)。
  3. 關鍵組件
    • 自注意力(Self-Attention):捕捉序列內部元素間的全局依賴關系;
    • 位置編碼(Positional Encoding):為無序的注意力機制補充序列位置信息;
    • 前饋網絡(FFN):對每個位置的特征進行獨立變換。

Transformer 架構宏觀解析

1. 核心結構:編碼器-解碼器

  • 編碼器(Encoder)

    • 子層
      1. 自注意力層(Self-Attention Layer):計算序列中每個元素與其他元素的相關性,生成加權特征;
      2. 前饋網絡(FFN):對每個位置的特征進行非線性變換,增強表達能力。
    • 層級堆疊:通常堆疊多層(如 6 層),每層參數獨立,逐層提取更抽象的特征。
  • 解碼器(Decoder)

    • 子層
      1. 自注意力層:處理目標序列(如翻譯中的目標語言句子),確保生成的序列符合語法;
      2. 編碼器-解碼器注意力層(Encoder-Decoder Attention):關注編碼器輸出中與當前解碼位置相關的信息(如源語言中對應的部分);
      3. 前饋網絡(FFN):進一步優化特征。
    • 掩碼機制:在解碼過程中屏蔽未來信息,確保生成過程的順序性。

2. 關鍵技術細節

  • 自注意力機制

    • 通過計算 Query、Key、Value 的點積注意力權重,動態加權所有位置的輸入,捕捉長距離依賴。
    • 多頭注意力(Multi-Head Attention):并行計算多個子空間的注意力,提升模型對不同位置關系的建模能力。
  • 位置編碼

    • 由于注意力機制本身不包含位置信息,需通過可學習或固定的位置編碼(如正弦函數)補充序列順序。
  • 層級化設計

    • 如 Swin Transformer 引入?窗口化自注意力(Window-based Self-Attention)?和?移位窗口機制,在視覺任務中平衡計算效率與局部特征建模。

2.3 關鍵技術解析

預訓練

定義與目標

預訓練是通過大規模無標注數據訓練模型,使其學習語言或圖像的通用特征、統計規律和基礎能力(如語法、語義、視覺模式等)。它是后續任務適應的基礎。

關鍵流程與技術細節

  1. 數據準備

    • 數據來源:互聯網文本(如新聞、書籍、論壇)、圖像庫(如ImageNet)等。
    • 數據清洗:去除噪聲、重復內容、隱私信息,確保數據質量。
    • 格式化處理:文本分詞、編碼(如Token化),圖像歸一化、增強等。
  2. 模型架構

    • 常用架構:Transformer(如BERT、GPT)、CNN(如ResNet)等。
    • 參數規模:通常較大(如百億級參數),以捕捉復雜模式。
  3. 訓練目標

    • 自監督學習任務
      • 語言模型(LM)任務:如掩碼語言模型(MLM,預測被遮蔽的詞)或因果語言模型(CLM,預測下一個詞)。
      • 圖像任務:如圖像重建、對比學習(Contrastive Learning)。
    • 無監督學習:通過數據自身生成偽標簽,減少對標注數據的依賴。
  4. 訓練策略

    • 使用大規模計算資源(如GPU/TPU集群)。
    • 監控訓練過程,防止過擬合,確保模型泛化能力。

特點與優勢

  • 數據效率:依賴海量無標注數據,成本低但訓練時間長。
  • 遷移能力:預訓練模型可遷移到多種下游任務(如文本分類、圖像識別)。
  • 基礎能力:為后續監督微調(SFT)和強化學習(RLHF)提供初始參數和特征表示。

監督微調 SFT(Supervised Fine-tuning)

定義與目標

SFT是基于預訓練模型,在特定任務的標注數據上進一步優化模型,使其適應具體任務(如問答、翻譯、圖像生成)。目標是提升模型在特定場景下的性能。

關鍵流程與技術細節

  1. 數據準備

    • 標注數據:需高質量的“輸入-輸出”對(如指令-響應對)。例如,人類專家或高質量LLM生成的示范回答。
    • 數據多樣性:覆蓋任務的多個方面,避免過擬合。
  2. 模型選擇

    • 使用預訓練的通用模型(如BERT、GPT、ResNet)作為基礎。
  3. 微調策略

    • 學習率調整:通常采用較小的學習率,避免破壞預訓練參數。
    • 批量大小與輪數:根據任務調整,平衡收斂速度與效果。
    • 正則化:如Dropout、L2正則化,防止過擬合。
    • 早停(Early Stopping):監控驗證集性能,提前終止訓練。
  4. 任務適配

    • NLP任務:文本分類、機器翻譯、問答系統。
    • CV任務:圖像分類、目標檢測、圖像生成。
    • 多模態任務:結合文本和圖像的聯合訓練(如文生圖)。

特點與優勢

  • 任務針對性:直接優化特定任務的性能。
  • 數據依賴:需要標注數據,但規模遠小于預訓練數據。
  • 局限性:標注成本高,且依賴標注數據的質量。

基于人類反饋的強化學習 RLHF(Reinforcement Learning from Human Feedback)

定義與目標

RLHF通過人類偏好反饋優化模型,使其生成內容更符合人類價值觀(如安全性、有用性、倫理)。目標是解決SFT的局限性,提升模型的“對齊”能力。

關鍵流程與技術細節

  1. 階段劃分

    • 步驟1:監督微調(SFT):生成初步的對齊模型(如ChatGPT的SFT模型)。
    • 步驟2:獎勵模型(RM)訓練
      • 數據收集:用SFT模型生成多個候選響應,由人類對響應進行排名或評分。
      • RM訓練:將分類模型(如SFT模型)的輸出層替換為回歸層,學習從輸入-響應對中預測人類偏好分數。
    • 步驟3:強化學習優化
      • 算法:使用近端策略優化(PPO)等算法,最大化獎勵信號的期望值。
      • 流程
        1. 輸入提示生成多個候選響應。
        2. RM為每個響應打分。
        3. 根據分數更新模型參數,使高分響應概率最大化。
  2. 關鍵技巧

    • KL散度約束:限制模型更新幅度,避免偏離SFT階段的穩定表現。
    • 多輪迭代:反復生成、評估、優化,逐步提升模型對齊效果。
    • 多維度獎勵:RM可同時評估事實性、無害性、流暢性等多維度指標(如DeepSeek的RM設計)。
  3. 實際應用

    • 對話系統:生成安全、有幫助的回復(如ChatGPT)。
    • 圖像生成:提升文生圖的美學和圖文匹配度(如Seedream 2.0通過RLHF優化PE模型)。

特點與優勢

  • 人類價值觀對齊:直接通過人類反饋優化模型行為。
  • 數據效率:相比SFT,標注成本更低(排名比生成更高效)。
  • 靈活性:可擴展到多模態任務(如圖像、文本聯合優化)。

三、大模型應用場景

1. 自然語言處理(NLP)

  • 文本生成
    • 應用場景:創作小說、新聞、劇本,智能寫作輔助工具生成初稿。
    • 示例:通過GPT類模型生成連貫文本,如代碼生成、對話系統。
  • 機器翻譯
    • 應用場景:跨語言實時翻譯(如商務交流、多語言內容生成)。
    • 示例:使用Transformer架構的MarianMT模型實現高質量翻譯。
  • 問答系統
    • 應用場景:智能客服、虛擬助手(如企業咨詢、知識庫問答)。
    • 示例:DeepSeek大模型賦能的“青易問·云客服”提升政務服務交互體驗。

2. 醫療領域

  • 輔助診斷
    • 應用場景:分析醫療影像(X光、CT)輔助病變檢測,結合病史文本提供診斷建議。
    • 示例:騰訊與邁瑞醫療聯合開發的“啟元重癥大模型”,將醫生工作效率提升超30倍。
  • 藥物研發
    • 應用場景:預測藥物分子結構、作用機制及副作用,加速研發流程。
    • 示例:通過分析海量醫學文獻,縮短藥物研發周期。
  • 健康管理
    • 應用場景:提供個性化健康建議、慢性病管理。
    • 示例:醫療咨詢數字人降低人工客服成本。

3. 金融領域

  • 風險評估與信用評級
    • 應用場景:分析財務數據、交易記錄,評估貸款風險。
    • 示例:DeepSeek模型優化信貸決策流程。
  • 智能投顧與投資決策
    • 應用場景:分析市場數據預測趨勢,提供投資組合建議。
    • 示例:結合新聞、財報數據輔助投資。
  • 反欺詐與合規風控
    • 應用場景:實時檢測交易欺詐,構建知識庫支持合規操作。
    • 示例:容聯云通過大模型優化反欺詐質檢系統。

4. 教育領域

  • 個性化學習
    • 應用場景:動態生成學習路徑,針對知識盲區強化訓練。
    • 示例:DeepSeek自適應學習系統使知識吸收效率提升40%。
  • 智能輔導與資源生成
    • 應用場景:自動批改作業、生成教學資源。
    • 示例:希沃大模型將教師備課時間從2小時縮短至30分鐘,批改作業效率提升30%。
  • 課堂互動
    • 應用場景:實時反饋學生學習效果,生成個性化報告。
    • 示例:希沃課堂智能反饋系統已生成超15萬份報告。

5. 工業與制造業

  • 生產優化與質檢
    • 應用場景:提升生產線效率、降低能耗。
    • 示例:里工實業的自動化生產線效率提升30%,成本降低40%-60%;紡織印染企業效率提升33%。
  • 供應鏈管理
    • 應用場景:預測需求、優化庫存調度。
    • 示例:機智云質檢方案在紡織行業節約30%人工成本。
  • 安全生產
    • 應用場景:實時監測風險,減少事故。
    • 示例:遠正智能的鋁加工安全管理平臺降低53%安全事件報警。

6. 安全與應急

  • 風險預警與救援
    • 應用場景:災害現場態勢感知、機器人救援。
    • 示例:安全大模型24小時運營,減少92%手動操作。
  • 行為識別
    • 應用場景:識別違規操作,預防安全事故。
    • 示例:工業領域的安全行為識別系統。

7. 傳媒與娛樂

  • 內容生成與推薦
    • 應用場景:生成新聞摘要、短視頻腳本,個性化內容推薦。
    • 示例:商湯“日日新V6”可分析《黑神話》游戲視頻生成高光片段及解說。
  • 虛擬數字人
    • 應用場景:虛擬主播、客服、教育助手。
    • 示例:中國電信的數字人生成技術實現高精度人物復刻和全流式交互。

8. 能源與環保

  • 需求預測與生產優化
    • 應用場景:優化電網調度、提高可再生能源利用率。
    • 示例:大模型預測風電、光伏波動,輔助電網平衡。
  • 碳排放管理
    • 應用場景:追蹤碳足跡,優化減排路徑。
    • 示例:華能利用大模型提升清潔能源生產效率。

9. 政務與公共服務

  • 智能審批與咨詢
    • 應用場景:簡化行政審批流程,提升服務效率。
    • 示例:青島“邊聊邊辦”AI場景將建筑許可審批交互體驗升級。

四、Prompt 提示詞

4.1 提示詞工程基礎

什么是提示詞(Prompt)

  1. 定義:提示詞是用戶輸入給AI模型(如大語言模型)的指令或問題,用于引導模型生成符合預期的輸出。它是人與AI交互的橋梁,直接影響結果的質量。
  2. 核心功能
    • 明確任務(如“寫一篇關于全球變暖的文章”);
    • 提供上下文(如背景信息、格式要求);
    • 指導輸出形式(如語言風格、結構)。
  3. 示例
    “請以環境科學家的身份,為政策制定者撰寫一份關于可持續發展的報告,涵蓋能源管理和廢棄物處理,要求語言簡潔、數據詳實。”

什么是提示工程

  1. 定義:提示工程是通過設計、優化和調整提示詞,最大化AI模型(如ChatGPT、GitHub Copilot)潛力的過程,確保輸出準確、相關且符合用戶需求。
  2. 核心目標
    • 提升輸出質量(減少歧義、提高準確性);
    • 充分利用模型能力(如邏輯推理、創意生成);
    • 降低交互成本(減少反復調整的次數)。
  3. 方法論
    • 結構化提示框架(如RTF框架:角色、任務、格式);
    • 迭代優化(根據模型反饋調整提示詞);
    • 結合示例或模板(通過示例明確輸出要求)。

Prompt的典型構成要素

  1. 指令(Instruction)
    • 明確的任務描述,如“分析用戶反饋中的核心訴求”或“生成Python函數”。
  2. 上下文(Context)
    • 背景信息或約束條件,如“以初中生水平講解量子力學”或“參考《Python編程入門》第3章”。
  3. 輸出指示(Format/Expectation)
    • 格式要求(如表格、Markdown);
    • 風格或內容限制(如“使用口語化中文,避免專業術語”)。

設置Prompt的通用技巧

  1. 明確性原則
    • 避免模糊指令(如“寫一篇好文章”→“寫一篇300字的科普文章,解釋氣候變化對極地動物的影響”);
    • 使用具體動詞(如“分析”“比較”“生成”)。
  2. 結構化設計
    • 分解任務:將復雜問題拆解為子任務(如“先總結數據,再提出解決方案”);
    • 框架應用:采用RTF框架(角色、任務、格式)或CAST框架(約束、受眾、規格)。
  3. 上下文與示例增強
    • 提供背景信息(如“用戶是新手程序員,需代碼注釋詳細”);
    • 通過示例引導(如“請按以下格式列出步驟:1. ... 2. ...”)。

4.2 Prompt 調優

Prompt 調優的定義與目標

Prompt 調優 是通過優化輸入給大模型的提示詞(Prompt),提升模型輸出的準確性、一致性和質量的過程。其核心目標是:

  1. 解決模型輸出問題:如回答不一致、復雜任務處理能力差、對特殊表達識別不準確等。
  2. 最大化模型能力:通過結構化設計、示例引導、約束條件等,讓模型更高效地完成任務。
  3. 降低人工干預成本:減少反復調整提示詞的迭代次數,提升交互效率。

Prompt 調優的核心問題

常見問題包括:

  1. 回答準確性不足:模型對規則或約束的理解不一致(如客服禮貌用語判斷錯誤)。
  2. 復雜問題處理不穩定:多步驟任務易出現邏輯跳躍或遺漏關鍵信息。
  3. 特殊表達識別不一致:模型對不同表達方式(如口語化、專業術語)的適應性差。
  4. 輸出格式或風格不統一:模型生成的內容不符合用戶指定的格式或風格要求。

Prompt 調優的遞進式步驟

1. 初步調優:提升基礎準確性
  • 方法:將模糊的口語化提示轉化為?結構化提示,明確規則和約束。
  • 示例
    • 原始提示
      “客服回答中是否使用了禮貌用語?”
    • 調優后提示
      ## 請根據以下標準判斷對話是否合規:
      - 客服是否使用了“請問”或類似的禮貌用語。
      - 客服是否避免使用命令式語氣。
      - 客服是否表達了對客戶問題的關心。
2. 進一步調優:解決復雜問題
  • 方法:通過?分步驟引導?和?示例驅動,讓模型逐步處理復雜任務。
  • 示例
    • 任務:編寫一個用戶注冊接口。
    • 優化提示
      請按以下步驟完成任務:
      1. 校驗請求參數必須包含 `email` 和 `password`。
      2. 密碼長度需大于6,否則返回 HTTP 400。
      3. 使用一致的 JSON 響應格式:`{ "status": "success/error", "message": str }`。
      4. 添加數據庫插入邏輯的偽代碼。
3. 高級調優:強化模型能力
  • 方法:結合?In-Context Learning (ICL)?和?元提示(Meta-Prompting),提升模型的推理和泛化能力。
  • 示例
    • ICL 示例
      提供多個示例幫助模型理解任務,例如:
      **任務**:執行算術運算  
      **示例**:  
      輸入:2 + 3 → 輸出:5  
      輸入:(2 + 3) * 4 → 輸出:20  
      **當前問題**:輸入:(7 - 3) * 2 → 輸出:?

Prompt 調優的關鍵技巧

1. 結構化設計
  • 明確指令:使用?RTF框架(Role, Task, Format)或?CAST框架(Constraint, Audience, Specification)。
  • 示例
    # 任務:生成一份春節主題的社交媒體文章  
    **角色**:社交媒體文案撰寫者  
    **任務**:創作一篇500字左右、溫馨風格的春節主題文章  
    **格式**:包含標題、3個段落,每段以節日習俗為例說明家庭團聚的重要性  
    **約束**:避免使用專業術語,語言口語化  
2. 示例驅動(ICL)
  • 方法:通過?正例?和?反例?明確輸出要求。
  • 示例
    **任務**:判斷客服回答是否合規  
    **正例**:  
    輸入:“請問您需要進一步幫助嗎?” → 輸出:合規  
    **反例**:  
    輸入:“快點說清楚你的問題!” → 輸出:不合規(命令式語氣)  
3. 明確約束與格式
  • 約束條件:限制輸出的字數、風格或邏輯(如接口開發的安全要求)。
  • 格式指示:要求模型以列表、表格或代碼塊形式輸出(如代碼生成任務)。
4. 分步驟引導
  • 方法:將復雜任務拆解為子任務,逐步引導模型完成。
  • 示例
    **任務**:解決數學問題  
    1. 理解問題:明確已知條件和目標。  
    2. 分析問題:選擇適用的公式或原理。  
    3. 計算過程:分步推導并驗證。  
    4. 得出結論:總結答案并檢查合理性。  

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/76938.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/76938.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/76938.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Redis 分布式鎖+秒殺異步優化

文章目錄 問題思路setnx實現鎖誤刪問題和解決方案Redis Lua腳本問題引出解決方案 setnx實現的問題Redission快速入門redission可重入鎖原理 秒殺優化(異步優化)異步秒殺思路秒殺資格判斷Redis消息隊列 問題 比如我們兩個機器都部署了我們項目,這里nginx使用輪詢的方…

機器學習中的距離度量與優化方法:從曼哈頓距離到梯度下降

目錄 前言一、曼哈頓距離(Manhattan Distance):二、切比雪夫距離 (Chebyshev Distance):三、 閔可夫斯基距離(Minkowski Distance):小結四、余弦距離(Cosine Distance)五、杰卡德距離(Jaccard Distance)六、交叉驗證方法6.1 HoldOut Cross-v…

HTML 嵌入標簽對比:小眾(<embed>、<object>) 與 <iframe> 的優缺點及使用場景和方式

需求背景 在網頁開發中&#xff0c;嵌入外部資源預覽&#xff08;如視頻、PDF、地圖或其他網頁&#xff09;是常見的需求。HTML 提供了多種標簽來實現這一功能&#xff0c;其中 <embed>、<object> 和 <iframe> 是最常用的三種。本文將對比它們的優缺點&…

未來七軸機器人會占據主流?深度解析具身智能方向當前六軸機器人和七軸機器人的區別,七軸力控機器人發展會加快嗎?

六軸機器人和七軸機器人在設計、功能和應用場景上存在明顯區別。六軸機器人是工業機器人的傳統架構&#xff0c;而七軸機器人則在多自由度和靈活性方面進行了增強。 本文將在理解這兩者的區別以及為何六軸機器人仍然是市場主流&#xff0c;從多個方面進行深入解讀六軸和七軸區…

C++基礎精講-07

文章目錄 1. const對象2. 指向對象的指針3. 對象數組4. c中const常見用法總結4.1 修飾常量4.2 修飾指針4.3 修飾函數參數4.4 修飾函數返回值4.5 修飾成員函數4.6 const對象 5. 賦值運算符函數&#xff08;補充&#xff09;5.1 概念5.2 默認賦值運算符函數局限5.3 解決辦法 1. c…

軟件測試之接口測試用例設計

1.接口測試用例設計簡介 我們對系統的需求分析完成之后&#xff0c;即可設計對應的接口測試用例&#xff0c;然后用接口測試用例進行接口測試。接口測試用例的設計也需要用到黑盒測試方法&#xff0c;其與功能測試用例設計的方法類似&#xff0c;接口測試用例設計中還需要增加…

(2)VTK C++開發示例 --- 繪制多面錐體

文章目錄 1. 概述2. CMake鏈接VTK3. main.cpp文件4. 演示效果 更多精彩內容&#x1f449;內容導航 &#x1f448;&#x1f449;VTK開發 &#x1f448; 1. 概述 VTK C開發示例程序&#xff1b; 使用C 和VTK繪制一個多面錐體。 環境說明系統ubuntu22.04、windows11cmake3.22、3.2…

公司內部自建知識共享的方式分類、詳細步驟及表格總結,分為開源(對外公開)和閉源(僅限內部),以及公共(全員可訪問)和內部(特定團隊/項目組)四個維度

以下是公司內部自建知識共享的方式分類、詳細步驟及表格總結&#xff0c;分為開源&#xff08;對外公開&#xff09;和閉源&#xff08;僅限內部&#xff09;&#xff0c;以及公共&#xff08;全員可訪問&#xff09;和內部&#xff08;特定團隊/項目組&#xff09;四個維度&am…

DeepSeek使用001:Word中配置DeepSeek AI的V3和R1模型

文章目錄 Word中配置DeepSeek大模型1、勾選開發工具2、信任中心設置3、添加DeepSeek-V3模型4、獲取API KEY5、添加DeepSeek-R1模型6、新建組7、測試使用 Word中配置DeepSeek大模型 1、勾選開發工具 打開【選項】 選擇【自定義功能區】 2、信任中心設置 打開【信任中心】&…

Spark-SQL核心編程語言

利用IDEA開發spark-SQL 創建spark-SQL測試代碼 自定義函數UDF 自定義聚合函數UDAF 強類型的 Dataset 和弱類型的 DataFrame 都提供了相關的聚合函數&#xff0c; 如 count()&#xff0c; countDistinct()&#xff0c;avg()&#xff0c;max()&#xff0c;min()。除此之外&…

從圖像“看出動作”

&#x1f4d8; 第一部分&#xff1a;運動估計&#xff08;Motion Estimation&#xff09; &#x1f9e0; 什么是運動估計&#xff1f; 簡單說&#xff1a; &#x1f449; 給你一段視頻&#xff0c;計算機要“看懂”里面什么東西動了、往哪動了、有多快。 比如&#xff1a; 一…

Spring Boot 使用 SMB 協議

2025/4/14 向全棧工程師邁進&#xff01; 一、詳述SMB協議 SMB&#xff08;Server Message Block&#xff09;協議是一個網絡文件共享協議&#xff0c;它使得計算機可以在網絡中共享文件、打印機以及其他資源。SMB 主要用于 Windows 操作系統&#xff0c;但也有其他平臺&#…

Spring編程式事務(本地事務)

使用 TransactionTemplate等類和 API 手動管理事務&#xff0c;控制事務的新建、提交、回滾等過程 方式一&#xff1a;使用 TransactionTemplate&#xff08;推薦方式&#xff09; Service public class OrderService {private final TransactionTemplate transactionTemplat…

itext7 html2pdf 將html文本轉為pdf

1、將html轉為pdf需求分析 經常會看到爬蟲有這樣的需求&#xff0c;將某一個網站上的數據&#xff0c;獲取到了以后&#xff0c;進行分析&#xff0c;然后將需要的數據進行存儲&#xff0c;也有將html轉為pdf進行存儲&#xff0c;作為原始存檔&#xff0c;當然這里看具體的需求…

企業級低代碼平臺的架構范式轉型研究

在快速迭代的數字時代&#xff0c;低代碼平臺如同一股清流&#xff0c;悄然成為開發者們的新寵。 它利用直觀易用的拖拽式界面和豐富的預制組件&#xff0c;將應用程序的開發過程簡化到了前所未有的程度。通過封裝復雜的編程邏輯和提供強大的集成能力&#xff0c;低代碼平臺讓…

C++ | STL之list詳解:雙向鏈表的靈活操作與高效實踐

引言 std::list 是C STL中基于雙向鏈表實現的順序容器&#xff0c;擅長高效插入和刪除操作&#xff0c;尤其適用于頻繁修改中間元素的場景。與std::vector不同&#xff0c;std::list的內存非連續&#xff0c;但提供了穩定的迭代器和靈活的元素管理。本文將全面解析std::list的…

AI運算服務器工控機特點與應用

AI運算服務器工控機是專門針對工業環境設計的計算設備&#xff0c;結合了傳統工控機&#xff08;工業控制計算機&#xff09;的可靠性與AI服務器的強大算力&#xff0c;廣泛應用于智能制造、邊緣計算、機器視覺、自動化控制等領域。以下是其核心特點、應用場景及選型建議&#…

25/4/9 算法筆記 DBGAN+強化學習+遷移學習實現青光眼圖像去模糊1

整體實驗介紹 實驗主要是結合DBGAN對抗網絡強化學習增強遷移學習增強實現青光眼圖像去模糊。今天則是先完成了DBGAN板塊模型的訓練。 實驗背景介紹 青光眼的主要特征有&#xff1a; 視盤形態與杯盤比CDR&#xff1a;青光眼患者主要表現為視杯擴大&#xff0c;盤沿變窄。 視…

智能復盤自動化系統搭建指南—基于DeepSeek API與Apple日歷的整合實踐

一、系統架構設計 本方案通過iOS快捷指令實現日歷數據與AI分析的自動化交互&#xff0c;核心流程包含&#xff1a; 日歷事件管理 創建每日循環的"AI復盤"日歷事項實現當日備注信息的動態更新 數據處理模塊時間日志標準化處理多維度數據特征提取 AI交互層對接DeepSeek…

01 位運算

12days 章節結構 00 算法前導課-編程基礎&#xff08;自學的視頻&#xff09; 01 位運算的奇巧淫技 02 查找與排序&#xff08;上&#xff09; 03 數組、查找與排序(下) 04 多維數組與矩陣 05 字符串專題 06 基本數學問題 06 遞歸、DFS、剪枝、回溯等問題 07 貪心策…