25、DeepSeek-R1論文筆記

DeepSeek-R1論文筆記

  • 1、研究背景與核心目標
  • 2、核心模型與技術路線
  • 3、蒸餾技術與小模型優化
  • 4、訓練過程簡介
  • 5、COT思維鏈(Chain of Thought)
  • 6、強化學習算法(GRPO)
  • 7、冷啟動
    • **1. 冷啟動的目的**
    • **2. 冷啟動的實現步驟**
    • **3. 冷啟動的作用**
      • **典型應用場景**
  • 匯總
        • 一、核心模型與技術路線
        • 二、蒸餾技術與小模型優化
        • 三、實驗與性能對比
        • 四、研究貢獻與開源
        • 五、局限與未來方向
      • 關鍵問題
        • 1. **DeepSeek-R1與DeepSeek-R1-Zero的核心區別是什么?**
        • 2. **蒸餾技術在DeepSeek-R1研究中的核心價值是什么?**
        • 3. **DeepSeek-R1在數學推理任務上的性能如何超越同類模型?**

DeepSeek-R1
? 標題:DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
? 時間:2025年1月
? 鏈接:arXiv:2501.12948
? 突破:基于DeepSeek-V3-Base,通過多階段強化學習訓練(RL)顯著提升邏輯推理能力,支持思維鏈(CoT)和過程透明化輸出。

1、研究背景與核心目標

  1. 大語言模型的推理能力提升
    近年來,LLM在推理任務上的性能提升顯著,OpenAI的o1系列通過思維鏈(CoT)擴展實現了數學、編碼等任務的突破,但如何通過高效方法激發模型的推理能力仍需探索。

    • 傳統方法依賴大量監督數據,而本文探索**純強化學習(RL)**路徑,無需監督微調(SFT)即可提升推理能力。
  2. 核心目標

    • 驗證純RL能否驅動LLM自然涌現推理能力(如自我驗證、長鏈推理)。
    • 解決純RL模型的局限性(如語言混合、可讀性差),通過多階段訓練提升實用性。
    • 將大模型推理能力遷移至小模型,推動模型輕量化。

2、核心模型與技術路線

  1. DeepSeek-R1-Zero

    • 純強化學習訓練:基于DeepSeek-V3-Base,使用GRPO算法,無監督微調(SFT),通過規則獎勵(準確性+格式)引導推理過程。
    • 能力涌現:自然發展出自我驗證、反思、長鏈推理(CoT)等行為,AIME 2024 Pass@1從15.6%提升至71.0%,多數投票達86.7%,接近OpenAI-o1-0912。
    • 局限性:語言混合、可讀性差,需進一步優化。
  2. DeepSeek-R1

    • 多階段訓練
      1. 冷啟動階段:使用數千條長CoT數據微調,提升可讀性和初始推理能力。
      2. 推理導向RL:引入語言一致性獎勵,解決語言混合問題。
      3. 拒絕采樣與SFT:收集60萬推理數據+20萬非推理數據(寫作、事實QA等),優化通用能力。
      4. 全場景RL:結合規則獎勵(推理任務)和神經獎勵(通用任務),對齊人類偏好。
    • 性能突破:AIME 2024 Pass@1 79.8%(超越o1-1217的79.2%),MATH-500 97.3%(對標o1-1217的96.4%),Codeforces評級2029(超越96.3%人類選手)。

3、蒸餾技術與小模型優化

  • 蒸餾策略:以DeepSeek-R1為教師模型,生成80萬訓練數據,微調Qwen和Llama系列模型,僅用SFT階段(無RL)。
  • 關鍵成果
    • 14B蒸餾模型:AIME 2024 Pass@1 69.7%,遠超QwQ-32B-Preview的50.0%。
    • 32B/70B模型:MATH-500 94.3%、LiveCodeBench 57.2%,刷新密集模型推理性能紀錄。

4、訓練過程簡介

zero:cot+grpo
R1:冷啟動+cot+grpo
在這里插入圖片描述
在這里插入圖片描述

5、COT思維鏈(Chain of Thought)

COT詳細原理參考:CoT論文筆記
2022 年 Google 論文《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》中首次提出,通過讓大模型逐步參與將一個復雜問題分解為一步一步的子問題并依次進行求解的過程可以顯著提升大模型的性能。而這些推理的中間步驟就被稱為思維鏈(Chain of Thought)。

思維鏈提示(CoT Prompting),在少樣本提示中加入自然語言推理步驟(如“先計算…再相加…”),將問題分解為中間步驟,引導模型生成連貫推理路徑。

  • 示例:標準提示僅給“問題-答案”,思維鏈提示增加“問題-推理步驟-答案”(如)。

  • 區別于傳統的 Prompt 從輸入直接到輸出的映射 <input——>output> 的方式,CoT 完成了從輸入到思維鏈再到輸出的映射,即 <input——>reasoning chain——>output>。如果將使用 CoT 的 Prompt 進行分解,可以更加詳細的觀察到 CoT 的工作流程。

  • 示例對比(傳統 vs. CoT)

    • 傳統提示

      問題:1個書架有3層,每層放5本書,共有多少本書?
      答案:15本
      
    • CoT 提示

      問題:1個書架有3層,每層放5本書,共有多少本書?
      推理:
      1. 每層5本書,3層的總書數 = 5 × 3
      2. 5 × 3 = 15
      答案:15本
      

關鍵類型

  1. 零樣本思維鏈(Zero-Shot CoT)
    無需示例,僅通過提示詞(如“請分步驟思考”)觸發模型生成思維鏈。適用于快速引導模型進行推理。

  2. 少樣本思維鏈(Few-Shot CoT)
    提供少量帶思維鏈的示例,讓模型模仿示例結構進行推理。例如,先給出幾個問題及其分解步驟,再讓模型處理新問題。
    在這里插入圖片描述

如圖所示,一個完整的包含 CoT 的 Prompt 往往由指令(Instruction),邏輯依據(Rationale),示例(Exemplars)三部分組成。一般而言指令用于描述問題并且告知大模型的輸出格式,邏輯依據即指 CoT 的中間推理過程,可以包含問題的解決方案、中間推理步驟以及與問題相關的任何外部知識,而示例則指以少樣本的方式為大模型提供輸入輸出對的基本格式,每一個示例都包含:問題,推理過程與答案。

以是否包含示例為區分,可以將 CoT 分為 Zero-Shot-CoT 與 Few-Shot-CoT,在上圖中,Zero-Shot-CoT 不添加示例而僅僅在指令中添加一行經典的“Let’s think step by step”,就可以“喚醒”大模型的推理能力。而 Few-Shot-Cot 則在示例中詳細描述了“解題步驟”,讓大模型照貓畫虎得到推理能力。

提示詞工程框架( 鏈式提示Chain):其他提示詞工程框架,思維鏈CoT主要是線性的,多個推理步驟連成一個鏈條。在思維鏈基礎上,又衍生出ToT、GoT、PoT等多種推理模式。這些和CoT一樣都屬于提示詞工程的范疇。CoT、ToT、GoT、PoT等提示詞工程框架大幅提升了大模型的推理能力,讓我們能夠使用大模型解決更多復雜問題,提升了大模型的可解釋性和可控性,為大模型應用的拓展奠定了基礎。

參考:
https://blog.csdn.net/kaka0722ww/article/details/147950677
https://www.zhihu.com/tardis/zm/art/670907685?source_id=1005

6、強化學習算法(GRPO)

詳細GRPO原理參考:DeepSeekMath論文筆記
在這里插入圖片描述

2.2.1 強化學習算法
群組相對策略優化 為降低強化學習的訓練成本,我們采用群組相對策略優化(GRPO)算法(Shao等人,2024)。該算法無需與策略模型規模相當的評論家模型,而是通過群組分數估計基線。具體來說,對于每個問題𝑞,GRPO從舊策略𝜋𝜃𝑜𝑙𝑑中采樣一組輸出{𝑜1, 𝑜2, · · · , 𝑜𝐺},然后通過最大化以下目標函數優化策略模型𝜋𝜃:
J GRPO ( θ ) = E [ q ~ P ( Q ) , { o i } i = 1 G ~ π θ old ( O ∣ q ) ] 1 G ∑ i = 1 G ( min ? ( π θ ( o i ∣ q ) π θ old ( o i ∣ q ) A i , clip ( π θ ( o i ∣ q ) π θ old ( o i ∣ q ) , 1 ? ε , 1 + ε ) A i ) ? β D KL ( π θ ∣ ∣ π ref ) ) , ( 1 ) J_{\text{GRPO}}(\theta) = \mathbb{E}\left[ q \sim P(Q), \{o_i\}_{i=1}^G \sim \pi_{\theta^{\text{old}}}(O|q) \right] \frac{1}{G} \sum_{i=1}^G \left( \min\left( \frac{\pi_\theta(o_i|q)}{\pi_{\theta^{\text{old}}}(o_i|q)} A_i, \text{clip}\left( \frac{\pi_\theta(o_i|q)}{\pi_{\theta^{\text{old}}}(o_i|q)}, 1 - \varepsilon, 1 + \varepsilon \right) A_i \right) - \beta D_{\text{KL}}(\pi_\theta || \pi_{\text{ref}}) \right), \quad (1) JGRPO?(θ)=E[qP(Q),{oi?}i=1G?πθold?(Oq)]G1?i=1G?(min(πθold?(oi?q)πθ?(oi?q)?Ai?,clip(πθold?(oi?q)πθ?(oi?q)?,1?ε,1+ε)Ai?)?βDKL?(πθ?∣∣πref?)),(1)

D KL ( π θ ∣ ∣ π ref ) = π ref ( o i ∣ q ) ( π θ ( o i ∣ q ) π ref ( o i ∣ q ) ? log ? π θ ( o i ∣ q ) π ref ( o i ∣ q ) ? 1 ) , ( 2 ) D_{\text{KL}}(\pi_\theta || \pi_{\text{ref}}) = \pi_{\text{ref}}(o_i|q) \left( \frac{\pi_\theta(o_i|q)}{\pi_{\text{ref}}(o_i|q)} - \log \frac{\pi_\theta(o_i|q)}{\pi_{\text{ref}}(o_i|q)} - 1 \right), \quad (2) DKL?(πθ?∣∣πref?)=πref?(oi?q)(πref?(oi?q)πθ?(oi?q)??logπref?(oi?q)πθ?(oi?q)??1),(2)
其中,𝜀和𝛽為超參數,𝐴𝑖為優勢函數,通過每組輸出對應的獎勵集合{𝑟1, 𝑟2, . . . , 𝑟𝐺}計算得到:
A i = r i ? mean ( { r 1 , r 2 , ? ? ? , r G } ) std ( { r 1 , r 2 , ? ? ? , r G } ) . ( 3 ) A_i = \frac{r_i - \text{mean}(\{r_1, r_2, · · · , r_G\})}{\text{std}(\{r_1, r_2, · · · , r_G\})}. \quad (3) Ai?=std({r1?,r2?,???,rG?})ri??mean({r1?,r2?,???,rG?})?.(3)

在這里插入圖片描述
在這里插入圖片描述

7、冷啟動

在這里插入圖片描述
在這里插入圖片描述

冷啟動(Cold Start)

在DeepSeek-R1的訓練流程中,冷啟動是一個關鍵階段,旨在通過少量高質量數據為模型提供初步的推理能力,為后續強化學習(RL)奠定基礎。以下是其核心內容:


AI 冷啟動是指人工智能系統在初始階段因缺乏足夠數據或歷史信息導致的性能瓶頸問題,常見于推薦系統、大模型訓練、提示詞優化等場景。以下是基于多領域研究的綜合解析:
AI模型訓練的冷啟動問題

  1. 數據匱乏的挑戰

    ? 問題:模型初期因數據不足導致推理能力弱,生成結果混亂或重復。

    ? 解決方案:

    ? 冷啟動數據(Cold-start Data):
    ? 高質量微調:用少量人工篩選的推理數據(如數學題詳細步驟)對模型進行初步訓練,提供“入門指南”。
    ? 數據來源:從大型模型生成(如ChatGPT)、現有模型輸出篩選、人工優化等方式獲取。

  2. 多階段訓練策略

    ? 階段1:冷啟動微調:用冷啟動數據優化模型基礎推理能力,提升生成結果的可讀性和邏輯性。

    ? 階段2:強化學習(RL):通過獎勵機制(如答案準確度、格式規范性)動態調整模型參數,優化推理策略。

    ? 階段3:多場景優化:結合拒絕采樣(篩選高質量輸出)和監督微調(SFT),擴展模型在專業領域(如金融、醫學)的適用性。


三、提示詞與上下文冷啟動

  1. 提示詞冷啟動策略
    ? 知識初始化:利用領域知識庫初始化模型參數,指導模型生成更符合任務需求的回答。
    ? 動態調整:根據模型表現實時調整學習率和任務權重,例如在復雜任務中增加上下文信息權重。

  2. 上下文信息利用
    ? 時間/場景適配:結合用戶當前環境(如工作日早晨推薦新聞,周末推薦娛樂內容)提升推薦相關性。
    ? 多模態數據融合:整合文本、圖像、社交網絡等多源數據,豐富冷啟動階段的特征提取。


1. 冷啟動的目的

? 解決DeepSeek-R1-Zero的局限性:

直接從基礎模型啟動RL(如DeepSeek-R1-Zero)會導致生成內容可讀性差、語言混雜(如中英文混合)。
? 引導模型生成結構化推理鏈:

通過冷啟動數據,教會模型以“思考過程→答案”的格式輸出,提升可讀性和邏輯性。


2. 冷啟動的實現步驟

(1) 數據收集
? 來源:

? 模型生成:用基礎模型(DeepSeek-V3-Base)通過few-shot提示生成長鏈推理(CoT)數據。

? 人工修正:對模型生成的答案進行篩選和潤色,確保可讀性。

? 外部數據:少量開源數學、編程問題的高質量解答。

? 格式要求:

強制要求模型將推理過程放在<reasoning>標簽內,答案放在<answer>標簽內,例如:

<reasoning>設方程√(a?√(a+x))=x,首先平方兩邊...</reasoning>
<answer>\boxed{2a-1}</answer>

(2) 監督微調(SFT)
? 數據規模:數千條(遠少于傳統SFT的百萬級數據)。

? 訓練目標:讓模型學會:

? 生成清晰的推理步驟。

? 遵守指定輸出格式。

? 避免語言混雜(如中英文混合)。


3. 冷啟動的作用

? 提升可讀性:

通過結構化標簽和人工修正,生成內容更符合人類閱讀習慣。
? 加速RL收斂:

冷啟動后的模型已具備基礎推理能力,RL階段更易優化策略。
? 緩解語言混合問題:

強制輸出格式和語言一致性獎勵(如中文或英文占比)減少混雜。


典型應用場景

  1. 推薦系統

    • 新用戶注冊時,通過引導式問卷(主動學習)或熱門內容(規則策略)完成冷啟動,隨后逐步切換至個性化推薦。
    • 案例:TikTok對新用戶先推送泛領域熱門視頻,再根據前幾個視頻的互動數據快速建模興趣標簽。
  2. 自然語言處理(NLP)

    • 新領域對話系統冷啟動:用預訓練語言模型(如LLaMA)結合少量領域數據微調,快速適應垂直場景(如法律咨詢、金融客服)。
  3. 計算機視覺(CV)

    • 新類別圖像識別:通過遷移學習加載ImageNet預訓練模型,再用少量新類別樣本微調,解決“新物體冷啟動”問題。
  4. 醫療AI

    • 罕見病診斷冷啟動:利用元學習快速適配新病例,或通過合成醫學影像數據增強模型泛化能力。

匯總

一、核心模型與技術路線
  1. DeepSeek-R1-Zero

    • 純強化學習訓練:基于DeepSeek-V3-Base,使用GRPO算法,無監督微調(SFT),通過規則獎勵(準確性+格式)引導推理過程。
    • 能力涌現:自然發展出自我驗證、反思、長鏈推理(CoT)等行為,AIME 2024 Pass@1從15.6%提升至71.0%,多數投票達86.7%,接近OpenAI-o1-0912。
    • 局限性:語言混合、可讀性差,需進一步優化。
  2. DeepSeek-R1

    • 多階段訓練
      1. 冷啟動階段:使用數千條長CoT數據微調,提升可讀性和初始推理能力。
      2. 推理導向RL:引入語言一致性獎勵,解決語言混合問題。
      3. 拒絕采樣與SFT:收集60萬推理數據+20萬非推理數據(寫作、事實QA等),優化通用能力。
      4. 全場景RL:結合規則獎勵(推理任務)和神經獎勵(通用任務),對齊人類偏好。
    • 性能突破:AIME 2024 Pass@1 79.8%(超越o1-1217的79.2%),MATH-500 97.3%(對標o1-1217的96.4%),Codeforces評級2029(超越96.3%人類選手)。
二、蒸餾技術與小模型優化
  • 蒸餾策略:以DeepSeek-R1為教師模型,生成80萬訓練數據,微調Qwen和Llama系列模型,僅用SFT階段(無RL)。
  • 關鍵成果
    • 14B蒸餾模型:AIME 2024 Pass@1 69.7%,遠超QwQ-32B-Preview的50.0%。
    • 32B/70B模型:MATH-500 94.3%、LiveCodeBench 57.2%,刷新密集模型推理性能紀錄。
三、實驗與性能對比
任務/模型DeepSeek-R1OpenAI-o1-1217DeepSeek-R1-ZeroDeepSeek-V3
AIME 2024 (Pass@1)79.8%79.2%71.0%39.2%
MATH-500 (Pass@1)97.3%96.4%86.7%90.2%
Codeforces (評級)2029-14441134
MMLU (Pass@1)90.8%91.8%-88.5%
四、研究貢獻與開源
  1. 方法論創新
    • 首次證明純RL可激發LLM推理能力,無需監督微調(SFT)。
    • 提出“冷啟動數據+多階段RL”框架,平衡推理能力與用戶友好性。
  2. 開源資源
    • 開放DeepSeek-R1/Zero及6個蒸餾模型(1.5B、7B、8B、14B、32B、70B),基于Qwen和Llama。
五、局限與未來方向
  • 當前局限
    • 語言混合問題(中英文混雜),多語言支持不足。
    • 工程任務(如代碼生成)數據有限,性能待提升。
    • 對提示格式敏感,少樣本提示可能降低性能。
  • 未來方向
    • 探索長CoT在函數調用、多輪對話中的應用。
    • 優化多語言一致性,解決非中英查詢的推理語言偏好問題。
    • 引入異步評估,提升軟件任務的RL訓練效率。

關鍵問題

1. DeepSeek-R1與DeepSeek-R1-Zero的核心區別是什么?

答案:DeepSeek-R1-Zero采用純強化學習訓練,無需監督微調(SFT),依賴規則獎勵自然涌現推理能力,但存在語言混合和可讀性問題;DeepSeek-R1在此基礎上引入冷啟動數據(數千條長CoT示例)進行初始微調,并通過多階段訓練(SFT+RL交替)優化可讀性、語言一致性和通用能力,最終性能更接近OpenAI-o1-1217。

2. 蒸餾技術在DeepSeek-R1研究中的核心價值是什么?

答案:蒸餾技術將大模型的推理模式遷移至小模型,使小模型在保持高效的同時獲得強大推理能力。例如,DeepSeek-R1-Distill-Qwen-14B在AIME 2024上的Pass@1為69.7%,遠超同規模的QwQ-32B-Preview(50.0%);32B蒸餾模型在MATH-500上達94.3%,接近o1-mini的90.0%。該技術證明大模型推理模式對小模型優化至關重要,且蒸餾比直接對小模型進行RL更高效經濟。

3. DeepSeek-R1在數學推理任務上的性能如何超越同類模型?

答案:DeepSeek-R1在AIME 2024上的Pass@1為79.8%,略超OpenAI-o1-1217的79.2%;MATH-500達97.3%,與o1-1217持平(96.4%)。其優勢源于強化學習對長鏈推理的優化(如自動擴展思考步驟、自我驗證),以及冷啟動數據和多階段訓練對推理過程可讀性和準確性的提升。此外,規則獎勵模型確保了數學問題答案的格式正確性(如公式框輸出),減少了因格式錯誤導致的失分。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/81294.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/81294.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/81294.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

開源項目實戰學習之YOLO11:12.2 ultralytics-models-sam-decoders.py源碼分析

?? 點擊關注不迷路 ?? 點擊關注不迷路 ?? 另外,前些天發現了一個巨牛的AI人工智能學習網站,通俗易懂,風趣幽默,忍不住分享一下給大家。感興趣的可以點擊相關跳轉鏈接。 點擊跳轉到網站。 ultralytics-models-sam 1.sam-modules-decoders.pyblocks.py: 定義模型中的各…

Raft 協議:分布式一致性算法的核心思想

引言 在分布式系統中&#xff0c;數據一致性是核心挑戰。Raft 協議作為一種易于理解的一致性算法&#xff0c;被廣泛應用于 etcd、Consul 等系統中。 一、Raft 核心概念 1.1 角色與任期&#xff08;Term&#xff09; ? 領導者&#xff08;Leader&#xff09;&#xff1a;處…

基于DWT的音頻水印算法

基于離散小波變換&#xff08;DWT&#xff09;的音頻水印算法是一種結合信號處理與信息隱藏的技術&#xff0c;旨在將版權信息或標識隱蔽地嵌入音頻信號中&#xff0c;同時保證不可感知性和魯棒性。以下是該算法的核心步驟及關鍵技術點&#xff1a; ?1. 算法基本原理? ?DWT…

低空經濟發展現狀與前景

低空經濟發展現狀與前景 一、低空經濟的定義與范疇 低空經濟是以民用有人駕駛和無人駕駛航空器為主體&#xff0c;以載人、載貨及其他作業等多場景低空飛行活動為牽引&#xff0c;輻射帶動商業活動或公共服務領域融合發展的一種綜合性新經濟形態。其涵蓋的低空空域通常為距離…

售前工作.工作流程和工具

第一部分 售前解決方案及技術建議書的制作 售前解決方案編寫的標準操作步驟SOP: 售前解決方案寫作方法_嗶哩嗶哩_bilibili 第二部分 投標過程關鍵活動--商務標技術方案 1. 按項目管理--售前銷售項目立項 銷售活動和銷售線索的跟蹤流程和工具 1&#xff09;拿到標書&#xff…

DeerFlow試用

github拉取代碼 配置.env和conf.yaml 注意設置大模型的url和模型名稱、api_key 先啟動根目錄下的server&#xff0c;端口如果有沖突直接在default變量賦值時修改&#xff1b; 再啟動前端&#xff0c;先build再run dev&#xff1b; 根據前端完成時的地址訪問界面&#xff1…

python + streamlink 下載 vimeo 短視頻

1. 起因&#xff0c; 目的: 看到一個視頻&#xff0c;很喜歡&#xff0c;想下載。https://player.vimeo.com/video/937787642 2. 先看效果 能下載。 3. 過程: 因為我自己沒頭緒。先看一下別人的例子&#xff0c; 問一下 ai 或是 google問了幾個來回&#xff0c;原來是流式…

JavaScript【6】事件

1.概述&#xff1a; 在 JavaScript 中&#xff0c;事件&#xff08;Event&#xff09;是瀏覽器或 DOM&#xff08;文檔對象模型&#xff09;與 JavaScript 代碼之間交互的一種機制。它代表了在瀏覽器環境中發生的特定行為或者動作&#xff0c;比如用戶點擊鼠標、敲擊鍵盤、頁面…

【Java ee初階】HTTP(2)

一、HTTP的方法 方法 說明 支持的HTTP協議版本 GET 獲取資源 1.0、1.1 POST 傳輸實體主體 1.0、1.1 PUT 傳輸文件 1.0、1.1 HEAD 獲得報文首部 1.0、1.1 DELETE 刪除文件 1.0、1.1 OPTIONS 詢問支持的方法 1.1 TRACE 追蹤路徑 1.1 CONNECT 要求用隧道…

文件名是 ?E:\20250512_191204.mp4, EV軟件錄屏,未保存直接關機損壞, 如何修復?

去github上下載untrunc 工具就能修復 https://github.com/anthwlock/untrunc/releases 如果訪問不了 本機的 hosts文件設置 140.82.112.3 github.com 199.232.69.194 github.global.ssl.fastly.net 就能訪問了 實在不行&#xff0c;從這里下載&#xff0c;傳上去了 https://do…

騰訊 CodeBuddy 殺入 AI 編程賽道,能否撼動海外工具霸主地位?

在 AI 編程助手領域&#xff0c;海外的 Cursor 等工具風頭正勁&#xff0c;如今騰訊帶著 CodeBuddy 隆重登場&#xff0c;國產 AI 編程助手能否借其之力崛起&#xff1f;讓我們一探究竟。 官網&#xff1a; 騰訊云代碼助手 CodeBuddy - AI 時代的智能編程伙伴 實戰安裝教程 …

PySide6 GUI 學習筆記——常用類及控件使用方法(常用類顏色常量QColorConstants)

文章目錄 一、概述二、顏色常量表標準 Qt 顏色SVG 顏色&#xff08;部分&#xff09; 三、Python 代碼示例四、代碼說明五、版本兼容性六、延伸閱讀 一、概述 QColorConstants 是 Qt for Python 提供的一個預定義顏色常量集合&#xff0c;包含標準Qt顏色和SVG規范顏色。這些常…

MATLAB 自然語言處理入門教程

文章目錄 前言環境配置一、MATLAB NLP 工具箱概述二、核心功能與 API1. 文本數據準備2. 特征提取3. 文本分類&#xff08;傳統機器學習&#xff09;4. 深度學習文本分類&#xff08;LSTM&#xff09; 三、實戰案例&#xff1a;情感分析四、高級應用1. 命名實體識別&#xff08;…

C++ deque雙端隊列、deque對象創建、deque賦值操作

在deque中&#xff0c;front()是頭部元素&#xff0c;back()指的是尾部元素。begin()是指向頭部的迭代器&#xff0c;end()是指向尾部的下一個元素的迭代器。 push_front 頭部進行插入 pop_front 尾部進行刪除 push_back 尾部進行插入 pop_back 尾部進行刪除 deque如果同時…

java每日精進 5.15【分頁實現】

1. 什么是對象轉換和數據翻譯&#xff1f; 對象轉換 對象轉換是指將一種類型的對象&#xff08;如數據庫實體 UserDO&#xff09;轉換為另一種類型的對象&#xff08;如前端響應對象 UserVO 或服務層 DTO&#xff09;。例如&#xff0c;一個 UserDO 包含用戶 ID、姓名和部門 …

什么是API接口?API接口的核心價值

隨著互聯網技術的蓬勃發展&#xff0c;API 接口作為不同應用程序之間的關鍵紐帶&#xff0c;其重要性愈發凸顯。本文將從專業視角&#xff0c;深入剖析 API 接口的分類、原理、請求方式以及安全機制等核心要素&#xff0c;助力讀者全面理解這一數字化基礎設施。 一、API 接口及…

Linux_ELF文件

目錄 前言&#xff1a; 一、ELF文件的類型 二、ELF文件的組成格式 1. ELF頭部(ELF Header) 2. 節頭表(Section Header Table) 3. 程序頭表(Program Header Table) 4. 節(Sections)與段(Segments) 三、ELF文件從形成到加載輪廓 1、ELF可執行文件形成過程 2、 可執行文…

Go語言語法---輸入控制

文章目錄 1. fmt包讀取輸入1.1. 讀取單個值1.2. 讀取多個值 2. 格式化輸入控制 在Go語言中&#xff0c;控制輸入主要涉及從標準輸入(鍵盤)或文件等來源讀取數據。以下是幾種常見的輸入控制方法&#xff1a; 1. fmt包讀取輸入 fmt包中的Scan和Scanln函數都可以讀取輸入&#xf…

【PostgreSQL數據分析實戰:從數據清洗到可視化全流程】附錄-C. 常用SQL腳本模板

?? 點擊關注不迷路 ?? 點擊關注不迷路 ?? 點擊關注不迷路 文章大綱 附錄C. 常用SQL腳本模板速查表一、數據清洗與預處理模板二、數據聚合與分析模板三、窗口函數應用模板四、性能優化與監控模板五、數據備份與恢復模板六、權限管理與安全模板七、事務與錯誤處理模板八、時…

51單片機課設基于GM65模塊的二維碼加條形碼識別

系統組成 主控單元&#xff1a;51單片機&#xff08;如STC89C52&#xff09;作為核心控制器&#xff0c;協調各模塊工作。 掃描模塊&#xff1a;GM65條碼掃描頭&#xff0c;支持二維碼/條形碼識別&#xff0c;通過串口&#xff08;UART&#xff09;與單片機通信。 顯示模塊&a…