2W8000字 LLM架構文章閱讀指北

?

大模型架構專欄已經更新了30多篇文章。完整的專欄內容歡迎訂閱: LLM 架構專欄

1、LLM大模型架構專欄|| 從NLP基礎談起

2、 LLM大模型架構專欄|| 自然語言處理(NLP)之建模

3、 LLM大模型架構之詞嵌入(Part1)
3、 LLM大模型架構之詞嵌入(Part2)
3、 LLM大模型架構之詞嵌入(Part3)

4、 LLM架構從基礎到精通之 Word2Vec 訓練全解析

5、 LLM架構從基礎到精通之循環神經網絡(RNN)

6、 全網最全的LLM架構講解||LSTM原理

7、 LLM架構從基礎到精通之門控循環單元(GRUs)

8、 深入探究編碼器 - 解碼器架構:從RNN到Transformer的自然語言處理模型

9、 2w8000字深度解析從RNN到Transformer:構建NLP應用的架構演進之路

10、 3w字 使用pytorch實現Transformer

11. 全網最全的神經網絡數學原理(代碼和公式)直觀解釋 ,全網最全,沒有之一

12. 20000字的注意力機制講解,全網最全

13. 2w字解析量化技術,全網最全的大模型量化技術解析

14. Transformer :數學解釋為什么縮放點積會導致更穩定的梯度

15. 2W8000字深度剖析25種RAG變體:全網最全~沒有之一

16. 大模型進化史:從Transformer到DeepSeek-R1的AI變革之路

17. LLMs的知識蒸餾:技術和應用

18. 3W6000字了解大模型LLM:部署、優化與框架

19. 2W8000字揭秘RAG:從基礎到高級的逆襲,徹底重塑大模型!

20. 3W4000字 大模型評估全解析:方法、指標與框架

21. 2W6000字 大模型核心技術綜述:微調、推理與優化指南
22. 1W8000 字 探秘 RAG 應用搜索:從語義搜索到評估指標的深度解析


以下是重新整理的部分文章的閱讀指北(微信文章 可直接跳轉):
1、LLM大模型架構專欄|| 從NLP基礎談起
本文是自然語言處理(NLP)相關的技術科普文章,從定義、應用、術語和工作流程等方面,對NLP進行了全面的解析。

  1. NLP定義:致力于讓機器理解、處理和生成人類語言,涵蓋自然語言理解(NLU)和自然語言生成(NLG)兩個領域,與語音識別不同但常協同工作。
  2. 應用領域:包括情感分析、毒性分類、機器翻譯、命名實體識別等,廣泛應用于生活各個方面,如企業了解用戶滿意度、網絡內容審核、語言交流、信息篩選等。
  3. 重要術語:文檔是基本文本單位;語料庫是大量文檔集合,用于訓練和評估模型;特征是文本中用于機器學習模型的可測量屬性。
  4. 工作流程
    • 數據預處理:包括分詞、詞干提取、詞形還原、文本歸一化和詞性標注等技術,目的是提高模型性能并將文本轉換為模型能理解的格式。
    • 特征提取:常見方法有詞袋模型、TF - IDF、N - grams、詞嵌入和上下文詞嵌入等,用于將文本轉化為數字特征,幫助機器學習模型進行處理。

2、 LLM大模型架構專欄|| 自然語言處理(NLP)之建模 13. 2w字解析量化技術,全網最全的大模型量化技術解析

本文圍繞自然語言處理(NLP)建模技術展開,詳細介紹了NER、語言模型、傳統機器學習與深度學習技術、學習策略等內容,展示了 NLP 建模技術的應用和發展趨勢。

  1. 命名實體識別(NER):從文本中找出并分類命名實體,如人名、組織名等。利用spacy庫可識別英文句子中的實體。在新聞資訊、知識圖譜構建等領域應用廣泛。
  2. 語言模型:預測單詞序列中接下來可能出現的單詞的統計模型。傳統語言模型如一元、二元或三元模型,依據單詞概率或前序單詞預測;神經網絡語言模型利用RNNs或Transformer架構,以BERT為代表,能捕捉復雜模式和依賴關系。
  3. 傳統機器學習與深度學習在NLP中的技術碰撞
    • 傳統機器學習技術:邏輯回歸用于情感分析等;樸素貝葉斯基于獨立性假設分類;決策樹通過分割數據集分類;LDA用于主題建模;HMM用于詞性標注。
    • 深度學習技術:自注意力機制等技術應用廣泛,Transformer憑借自注意力機制,提升訓練速度和推理效率,催生了諸多強大模型。
  4. 現代NLP中的重要學習策略:遷移學習利用預訓練模型減少訓練成本;微調針對特定任務調整預訓練模型;零樣本學習使模型執行未訓練任務;少樣本學習讓模型從少量示例學習,減少對大量標注數據的依賴。

3、 LLM大模型架構之詞嵌入(Part1)
3、 LLM大模型架構之詞嵌入(Part2)
3、 LLM大模型架構之詞嵌入(Part3)
以上三部分介紹了詞嵌入的各種方法


4、 LLM架構從基礎到精通之 Word2Vec 訓練全解析
本文圍繞自然語言處理技術Word2Vec展開,詳細介紹了其訓練過程、架構、應用及優化方法,幫助讀者深入理解這一技術。

  1. Word2Vec基本概念:是自然語言處理中關鍵技術,能將單詞轉化為向量,便于計算機理解文本。
  2. 訓練過程與架構:本質是單隱藏層神經網絡,訓練時調整權重降低損失函數值,訓練后取隱藏層權重作為詞向量。輸入單詞需轉換為one - hot向量,隱藏層是全連接層,其權重即詞向量,輸出層用softmax激活函數輸出目標單詞概率分布。
  3. 語義和句法關系處理:相似上下文的單詞會生成相似詞向量,通過向量算術可重現語義和句法模式,如“Man - Woman = Brother - Sister”。
  4. 訓練算法
    • 分層softmax:用哈夫曼樹近似條件對數似然,減少計算量,對不常見單詞效果好,但訓練輪數增加時作用減弱。
    • 負采樣:僅對目標單詞和N個負實例采樣,忽略one - hot標簽中的大部分‘0’,負樣本按一元分布選擇,頻率越高越可能被選。
  5. 實用方法
    • 模型架構選擇:Skip - gram在大型語料庫和高維向量模型中準確性高,CBOW計算成本低且準確性相近。
    • 子采樣:對高頻單詞進行子采樣,可提高訓練速度和性能,常見單詞對或短語可視為單個“單詞”。
    • 維度設置:詞向量質量隨維度增加提升,但超過一定閾值邊際收益減少,一般維度設為100 - 1000。
    • 上下文窗口調整:Skip - gram推薦窗口大小為10,CBOW為5。

5、 LLM架構從基礎到精通之循環神經網絡(RNN)
這篇文章圍繞循環神經網絡(RNN)展開,從神經網絡基礎講起,深入探討RNN及其相關內容,主要涵蓋以下要點:

  1. 神經網絡基礎:神經網絡受大腦運作模式啟發,由眾多節點構成,在機器學習尤其是深度學習中作用關鍵。其學習過程包括前向傳播、損失函數計算和反向傳播,涉及Epochs、Batch Size和Iterations等重要概念。神經網絡類型多樣,如淺層、深層神經網絡等。
  2. 循環神經網絡(RNNs)
    • 定義與應用場景:RNN專門用于處理順序數據,能通過內部狀態保留之前輸入的信息,在處理時間序列數據、語言建模等任務時優勢明顯。
    • 順序數據概念:順序數據的順序影響其含義,如文本句子、時間序列數據和語音信號等。
    • 與前饋神經網絡對比:前饋神經網絡數據單向流動,處理順序數據有局限;RNN通過反饋回路傳遞信號,能更好處理順序數據。
    • 架構:由輸入層、隱藏層和輸出層組成,可看作多個前饋神經網絡在時間上的鏈式執行。關鍵操作包括前向傳播、反向傳播時間(BPTT)和權重更新。
    • 訓練挑戰:存在梯度消失和梯度爆炸問題,主要由激活函數特性和初始權重設置不當引起,可通過觀察梯度大小判斷是否出現問題。
    • 解決方法:可采用適當的權重初始化,如Xavier初始化;使用非飽和激活函數,如ReLU及其變體(LReLU、PReLU、ELU、SELU )等。
  3. 從頭構建RNN:通過定義RNN類、早停機制類、RNN訓練器類、數據加載和預處理類,完整展示了使用Air passenger數據集訓練RNN進行時間序列預測的過程。

6、 全網最全的LLM架構講解||LSTM原理

本文圍繞長短期記憶網絡(LSTM)展開,從原理、架構、工作流程、架構類型到Python實現與訓練,進行了全面深入的介紹。

  1. LSTM簡介:屬于RNN家族,能學習長期依賴關系,通過創建短期和長期記憶路徑,解決傳統RNNs平衡長短時上下文困難的問題,信息經細胞狀態流動,依靠加法和乘法運算管理數據。
  2. LSTM架構:與RNNs鏈狀結構相似,但重復模塊有四個緊密相連的功能,包括Sigmoid、Tanh激活函數、逐點乘法和逐點加法。門控機制是關鍵,由忘記門、輸入門和輸出門組成,決定信息的保留、更新和輸出。
  3. LSTM工作流程:先由忘記門確定前一細胞狀態保留或丟棄的信息,再通過輸入門決定當前細胞狀態存儲的信息,最后輸出門基于細胞狀態決定輸出信息,整個過程在每個模塊重復。
  4. LSTM架構類型:介紹了五種常用架構。Vanilla LSTM是基本架構;Stacked LSTM由多個LSTM層堆疊;CNN LSTM結合CNN和LSTM;Encoder - Decoder LSTM用于序列到序列問題;Bidirectional LSTM適用于序列分類問題。
  5. Python從零構建LSTM:詳細給出在Python中構建LSTM的步驟,包括導入庫和自定義類,如WeightInitializer、PlotManager和EarlyStopping,以及LSTM類的初始化、前向傳播、反向傳播、參數更新方法,還有訓練器類LSTMTrainer的使用示例,并強調訓練中參數設置和監控的重要性。

7、 LLM架構從基礎到精通之門控循環單元(GRUs)
本文圍繞門控循環單元(GRUs)展開,涵蓋從基礎概念到實踐應用等多方面內容,是關于GRUs的深度技術科普文章。

  1. GRUs基礎:由Cho等人在2014年提出,目的是解決標準RNN的梯度消失問題。它和LSTM類似,利用門控機制管理記憶,不同在于將輸入門和遺忘門合并為更新門,還增加了重置門,簡化了結構。
  2. 與其他網絡比較:普通RNN傳遞信息時存在梯度消失問題,難以學習長期依賴關系;LSTM用輸入門、遺忘門和輸出門解決了該問題,能處理復雜上下文;GRUs是LSTM的簡化版,計算強度低、訓練速度快,同時也能處理長期依賴關系。
  3. 門的功能:更新門決定過往信息傳遞量,重置門決定忽略過往信息的程度。在實際應用場景,如分析客戶評價時,它們會根據情況調整,讓模型關注關鍵信息。
  4. 代碼實現:通過Python代碼實現了一個簡單的GRU類,包含前向傳播、反向傳播以及參數更新的方法,展示了GRU架構的核心機制。
  5. 優缺點與選擇:優點是在序列數據建模、處理可變長度輸入上表現出色,計算效率高且能緩解梯度消失;局限在于處理極長復雜序列時不如LSTM,表達能力相對較弱。資源有限、追求簡單模型或處理短序列時適合用GRUs;需要捕獲長期依賴關系、精細內存控制或處理復雜序列時,LSTMs更合適,實際應用中最好通過實驗確定。
  6. 總結:全面回顧了RNNs相關知識,強調GRUs是處理序列數據的有力工具,理解其架構和原理對應用至關重要,選擇GRUs還是LSTMs要綜合多方面因素考量。

8、 深入探究編碼器 - 解碼器架構:從RNN到Transformer的自然語言處理模型

文章圍繞編碼器 - 解碼器架構展開,深入探討其在自然語言處理領域的應用,詳細介紹架構原理、訓練方式、優缺點及改進方法,并列舉了實際應用案例。

  1. 編碼器 - 解碼器架構概述:用于解決Seq2Seq問題,處理順序數據。編碼器將輸入序列編碼為上下文向量,解碼器利用該向量生成輸出序列。以神經機器翻譯為例,輸入英語句子,輸出法語翻譯。
  2. 架構內部機制:Seq2Seq模型基于RNN,常使用LSTM單元。編碼器處理輸入序列,其最終內部狀態作為上下文向量傳遞給解碼器;解碼器根據上下文向量和前一時刻輸出,逐個生成目標序列單詞。
  3. 模型訓練:訓練前需對數據向量化,如獨熱編碼。訓練時,編碼器工作方式不變,解碼器采用教師強制技術,用真實輸出作為下一時刻輸入;測試時,解碼器用上一時刻預測輸出作為輸入。
  4. 架構缺點:存在與長度相關的缺點,如記憶能力有限,處理長序列時會增加模糊性;訓練長序列時易出現梯度消失問題。
  5. 架構改進:添加嵌入層,學習單詞有意義表示;使用深度LSTM,結合相關技術緩解梯度消失問題;反轉輸入序列,在部分機器翻譯任務中可提升性能。
  6. 示例及應用場景:可結合CNN、RNN、LSTM等網絡解決不同問題,如用于圖像描述、機器翻譯。在Transformer模型、Make - a - Video、機器翻譯、圖像描述等領域均有應用。

9、 2w8000字深度解析從RNN到Transformer:構建NLP應用的架構演進之路

這篇文章圍繞大型語言模型(LLM)和Transformer展開,深度解析了從傳統模型到Transformer的架構演進,以及LLM的構建、訓練、推理和優化等內容。

  1. LLM概述:LLM運用深度學習和海量數據實現語言理解與生成,基于Transformer架構,具有注意力機制和自回歸文本生成能力。構建和訓練需收集處理大量數據,設計特定架構,利用計算能力和算法訓練并不斷擴展。大型語言模型操作(LLMOps)專注于其生產環境部署、監控和維護。
  2. 前Transformer時代模型: 早期模型如多層感知機(MLPs)不適合序列建模;循環神經網絡(RNNs)雖能處理序列數據,但存在長期依賴問題和訓練速度慢的缺陷;長短期記憶網絡(LSTM)一定程度改善了信息傳遞問題,但長句處理仍有局限;卷積神經網絡(CNNs)具有并行性和局部依賴捕捉能力,但處理長距離依賴關系不佳。注意力機制一定程度解決了部分問題,但仍存在順序訓練等缺陷。
  3. Transformer架構:為解決序列轉換問題而生,核心是自注意力機制,能捕捉長距離依賴關系。由編碼器、解碼器組成,包含嵌入、多頭自注意力、前饋神經網絡等組件,各組件協同工作,將輸入序列轉換為輸出序列。
  4. LLM架構類型:Seq-2-Seq模型(編碼器 - 解碼器)適用于機器翻譯、文本摘要;自動編碼模型(僅編碼器)專注于語言理解;自回歸模型(僅解碼器)擅長文本生成;專家混合(MoE)通過子模型和門控網絡提升效率和多樣性。
  5. 推理及優化:推理是用訓練好的模型進行預測,解碼器在訓練和推理時工作方式不同。推理技術有貪婪搜索和束搜索。同時,Transformer推理面臨內存和計算需求大、延遲高、批量大小與性能平衡難等挑戰,可通過量化、鍵值(KV)緩存、推測解碼、批處理、硬件優化、FlashAttention等技術優化。
  6. 其他要點:對推理性能進行基準測試可評估優化效果。未來趨勢包括內存優化、注意力機制優化、并行性提升和推測推理應用。處理大型數據集需高效的數據加載和預處理、分布式訓練等策略。

10、 3w字 使用pytorch實現Transformer

文章圍繞Transformer架構展開,詳細介紹其理論、構建過程、訓練方法及相關知識,旨在幫助讀者深入理解并掌握Transformer模型。

  1. Transformer架構概述:2017年谷歌提出的Transformer架構引發了機器學習領域的變革,其憑借并行處理能力在自然語言處理任務中表現出色,并為后續模型奠定基礎。
  2. Transformer架構解析:訓練時,輸入序列經嵌入、編碼等處理,解碼器結合編碼器輸出生成目標序列,通過損失函數和反向傳播訓練模型。其主要由編碼器和解碼器組成,包含多頭注意力機制、前饋網絡等模塊,各模塊協同工作。
  3. 從頭構建Transformer模型:利用PyTorch構建模型,涵蓋輸入嵌入、位置編碼等多個組件。同時,介紹分詞器、數據集加載、驗證循環和訓練循環等內容,完成模型的搭建與訓練準備。
  4. 損失函數:常用損失函數包括交叉熵損失,可通過標簽平滑優化。此外,還有標記級損失和序列級損失,適用于不同任務。
  5. 知識問答:針對Transformer架構的關鍵知識點設置問答,涵蓋自注意力機制、位置編碼等多方面,加深讀者對架構的理解。

11. 全網最全的神經網絡數學原理(代碼和公式)直觀解釋 ,全網最全,沒有之一

文章主要對神經網絡背后的數學原理進行了直觀解釋,通過理論講解、公式推導和Python代碼示例,深入剖析了神經網絡在分類和回歸問題中的應用及原理。

  1. 神經網絡基礎概念:神經網絡能學習復雜數據模式,本文采用可視化方式解讀。單層神經網絡包含輸入層和輸出層,輸入層僅傳遞數據。感知器是首個神經網絡,用于二元分類,其輸出層計算輸入特征加權和,通過階躍函數激活。
  2. 分類問題中的神經網絡
    • 單層網絡:感知器決策邊界是直線,垂直于權重向量。Sigmoid神經元將激活函數換為Sigmoid函數,可輸出預測概率,其決策邊界同樣是直線。增加特征后,決策邊界在3D空間為平面,更高維則是超平面,感知器和Sigmoid神經元都屬于線性分類器。
    • 多類分類:多類分類需softmax層,它是Sigmoid函數的泛化。以有2個特征、3個標簽的數據集為例,softmax創建多個決策邊界,每個都是直線,垂直于特定向量,推廣到高維,決策邊界是超平面。
    • 多層網絡:非線性可分數據集用單層網絡效果差,多層網絡隱藏層可將原始數據集轉化為線性可分數據。如含ReLU激活函數的隱藏層,可將二維非線性可分數據轉化為三維線性可分數據,輸出層再進行分類。非線性激活函數對隱藏層至關重要,用線性激活函數無法使隱藏層有效轉換數據集。
  3. 回歸問題中的神經網絡
    • 單層網絡:單層神經網絡若輸出層為線性激活函數,使用均方誤差成本函數時,行為類似線性回歸模型。
    • 多層網絡:要學習非線性數據集,需在隱藏層添加非線性激活函數,如ReLU。通用近似定理表明,含足夠神經元隱藏層和合適激活函數的前饋神經網絡可逼近任何連續函數,增加隱藏層神經元數量能提高逼近能力。

12. 20000字的注意力機制講解,全網最全

這篇文章圍繞注意力機制展開,詳細介紹其在深度學習模型中的應用,涵蓋自然語言處理和計算機視覺領域,具體內容如下:

  1. 引言:注意力機制在處理長距離依賴任務中發揮關鍵作用,如NLP、機器翻譯和圖像識別。它解決了傳統Seq2Seq模型處理長序列時上下文向量無法有效容納信息的問題。
  2. 注意力機制詳解
    • 核心思想:在解碼器每個時間步創建新的上下文向量,使解碼器能訪問所有編碼器隱藏狀態,專注輸入序列相關部分,提升處理長序列能力。
    • 工作原理:以seq2seq + 注意力模型為例,包括準備隱藏狀態、獲取分數、Softmax處理、加權求和及輸入解碼器5個步驟,訓練和推理過程有所不同,依賴反向傳播優化。
  3. 模型中的注意力機制運作:模型先處理輸入生成隱藏狀態,再計算注意力分數,經Softmax歸一化后加權求和得到上下文向量,解碼器利用其生成輸出序列。
  4. 注意力機制類型:介紹Bahdanau、Luong、自注意力、多頭注意力、交叉注意力等多種機制,以及谷歌神經機器翻譯(GNMT),并對比全局與局部、硬注意力與軟注意力的差異。
  5. LSTM上的注意力機制:相關論文將注意力機制與LSTM結合用于機器閱讀任務,提升模型性能,與自注意力機制存在區別。
  6. 評分函數:介紹加法/拼接、點積等評分函數,點積運算衡量向量相似性,前饋神經網絡用于學習對齊權重。
  7. 計算機視覺中的注意力機制:包括空間、通道、自注意力等類型,應用于目標檢測、圖像描述等任務,能提升模型性能。

13. 2w字解析量化技術,全網最全的大模型量化技術解析
這篇文章圍繞機器學習中的量化技術在大語言模型中的應用展開,介紹了量化的概念、優勢、技術方法等內容。

  1. 量化的優勢與大語言模型的規模挑戰
    • 優勢:量化能降低內存占用、加快推理速度、減少能源消耗并提升部署靈活性。
    • 挑戰:現代大語言模型參數規模龐大,對內存要求高。不同位寬浮點格式各有優劣,減少位大小會引入近似誤差,需平衡誤差與內存、計算速度的關系。
  2. 量化基礎
    • 數據格式:介紹IEEE-754浮點標準下的FP32、FP16、Bfloat16及INT8、INT4整數格式的構成與范圍。
    • 量化過程與類型:量化過程包括確定數值動態范圍、選擇縮放因子、映射為整數及存儲縮放因子;量化類型有對稱量化和非對稱量化,各有特點與計算方式。
    • 特定任務建議:自然語言處理訓練用BF16、推理用INT8;圖像處理訓練用FP16,推理用INT8或INT4;Transformer模型注意力層可混合使用INT8和INT4。
    • 裁剪與校準:裁剪可處理異常值,減少其對量化的影響;校準是選擇最優范圍,不同類型參數(權重和激活值)校準技術不同。
  3. 量化技術
    • 訓練后量化(PTQ):權重量化可選擇對稱或非對稱量化;激活值量化有動態量化和靜態量化兩種方式,各有利弊,并給出PyTorch實現代碼示例。4位量化有GPTQ、GGML和GGUF、AWQ等方法,分別介紹其原理與優勢。
    • 量化感知訓練(QAT):在訓練過程中引入偽量化,使模型適應量化變化,能找到損失曲面中的寬最小值,提高低精度下模型性能。
    • BitNet:將量化集成到Transformer架構,使用1比特值表示權重,后發展為1.58比特量化,通過特定量化策略提高計算效率。

14. Transformer :數學解釋為什么縮放點積會導致更穩定的梯度

15. 2W8000字深度剖析25種RAG變體:全網最全~沒有之一
本文圍繞25種RAG變體展開,深入探討其架構、組件、流程及代碼實現,為LLM動態增強提供全面指引。

  1. RAG變體分類及介紹:主流RAG框架分為成本控制型、實時互動型、域專家類型、認知增強型、安全與合規類型。文中詳細介紹了25種RAG變體,如標準RAG由檢索和生成模塊構成,能動態注入外部知識;CRAG增加迭代反饋循環,減少幻覺;Speculative RAG采用雙模型策略,提升速度和準確性。
  2. 具體實現代碼示例:針對每種變體給出關鍵代碼示例,像標準RAG的查詢編碼器、文檔分割、索引檢索、提示構造及生成的代碼;CRAG置信度評分和反饋回路代碼等,助讀者理解其技術細節。
  3. 各變體關鍵優勢:每個變體都有獨特優勢,如Self - RAG可減少對外部資源依賴,提升模型自主性;自適應RAG能優化資源利用,提升性能;REFEED無需重新訓練模型就能提高回答準確性。
  4. 應用場景及價值:這些變體適用于智能問答、文檔生成、多模態任務、翻譯等領域,能提升模型性能和回答質量,為用戶提供更優質服務體驗。

16. 大模型進化史:從Transformer到DeepSeek-R1的AI變革之路
這篇文章回顧了2017 - 2025年大語言模型的發展歷程,介紹關鍵模型、技術及影響,強調發展推動人工智能走向更具包容性和影響力的未來。

  1. 語言模型基礎:語言模型旨在處理、理解和生成類人語言,多數大語言模型自回歸運行,依前文預測后文,按此生成文本,應用廣泛。
  2. 關鍵發展階段
    • Transformer革命(2017年):Transformer架構解決早期模型處理長距離依賴和順序處理難題,其自注意力、多頭注意力等創新,為大規模高效語言模型奠基。
    • 預訓練Transformer模型時代(2018 - 2020年):BERT雙向訓練提升語言理解能力;GPT系列專注生成,通過自回歸預訓練和微調,在多任務表現出色,GPT-3展示規模效應。
    • 訓練后對齊(2021 - 2022年):為解決大語言模型“幻覺”等問題,開發SFT和RLHF技術。ChatGPT基于GPT-3.5,經對話數據微調與RLHF,推動對話式人工智能發展。
    • 多模態模型(2023 - 2024年):GPT-4V結合視覺與語言能力,GPT-4o整合多模態,在多行業引發變革。同時,開源和開放權重模型興起,促進社區創新。
    • 推理模型(2024 - 2025年):2024年人工智能注重推理能力提升,OpenAI-o1通過思維鏈增強推理,在多領域表現優異。2025年DeepSeek-R1及其相關模型,以低訓練成本實現高性能推理,在多基準測試表現出色,降低使用成本,挑戰行業格局。
  3. 總結與展望:大語言模型發展歷程中,Transformer架構、GPT-3、ChatGPT、DeepSeek-R1具有里程碑意義,推動人工智能朝著更具包容性和影響力的未來發展 。

17. LLMs的知識蒸餾:技術和應用
這篇文章圍繞LLMs的知識蒸餾技術展開,全面介紹了其技術原理和應用,旨在幫助讀者深入理解并掌握這一重要技術,具體內容如下:

  1. 知識蒸餾的背景與定義:大規模機器學習和深度學習模型雖性能強大,但部署困難,知識蒸餾能將復雜模型知識提煉到較小模型,克服這些挑戰。它是將知識從大型復雜模型轉移到單個較小模型的過程,本質是模型壓縮,隨著深度學習發展受到廣泛關注。
  2. 知識蒸餾的關鍵要素
    • 知識類型:包括基于響應、基于特征和基于關系的知識,分別側重于教師模型的輸出層、中間層和特征圖之間的關系。
    • 訓練方式:有離線蒸餾(使用預訓練教師模型指導學生模型)、在線蒸餾(教師和學生模型同時更新)和自蒸餾(教師和學生模型相同,用深層知識訓練淺層)。
    • 師生架構:學生模型可以是教師模型的較淺版本、量化版本等,還可通過神經架構搜索設計最佳學生模型架構。
    • 蒸餾算法:介紹了對抗性蒸餾、多教師蒸餾、跨模態蒸餾等多種算法,以及基于圖、注意力、無數據、量化、終身和基于神經架構搜索的蒸餾算法。
  3. 知識蒸餾的應用:在視覺、自然語言處理和語音領域應用廣泛。視覺領域用于圖像分類、人臉識別等眾多任務;自然語言處理領域可獲得輕量級模型,應用于神經機器翻譯、文本生成等場景,DistilBERT是典型案例;語音領域用于語音識別、口語識別等,如Amazon Alexa的聲學建模。
  4. 總結:知識蒸餾是訓練高效輕量級模型的有效機制,基于多種知識、訓練方案、架構和算法,在多個領域取得巨大成功。

18. 3W6000字了解大模型LLM:部署、優化與框架
文章圍繞大語言模型(LLM)的部署、優化與框架展開,全面介紹了LLM服務相關知識,具體內容如下:

  1. LLM服務基礎
    • 服務內容:包括高效處理、模型部署、API創建和基礎設施管理,旨在使LLM能實時響應查詢。
    • 本地運行優勢及條件:本地運行LLM具有隱私性和成本優勢,需具備開源LLM和在本地設備運行的推理能力。
  2. 加載LLM的方法與框架
    • 多種框架對比:介紹HuggingFace、LangChain、Llama.cpp等多種加載LLM的框架,分析各自優缺點及使用方法。
    • 分片與量化技術:分片將模型拆分成小塊以減少VRAM需求;量化通過轉換數據表示形式減小模型大小和內存需求,介紹了Bitsandbytes、GPTQ、AWQ和GGUF等量化方法。
  3. 推理優化策略
    • 理解推理過程:LLM推理分預填充階段和解碼階段,請求批處理和連續批處理可優化推理,但存在內存限制問題。
    • 優化技術:介紹PagedAttention、KV緩存等優化技術,以及模型并行化(流水線并行、張量并行、序列并行)和注意力機制優化(多頭注意力、多查詢注意力等)方法。
  4. 模型優化技術:包括量化、稀疏性和蒸餾。量化降低模型權重和激活值精度;稀疏性將接近0的值替換為0并用壓縮形式表示矩陣;蒸餾把大模型知識轉移到小模型中。
  5. 模型服務技術
    • 正在進行的批處理:大語言模型任務多樣,導致批處理困難,連續批處理可提高GPU利用率。
    • 推測性推理:針對自回歸模型按token生成文本的特點,通過“成本較低”的過程生成草稿續寫內容,再由驗證模型并行驗證,提高生成效率。
  6. 服務指標與組件
    • 評估指標:使用首token生成時間、每個輸出token的生成時間、延遲和吞吐量四個關鍵指標評估大語言模型服務。
    • 組件功能:引擎負責運行模型和請求批處理,服務器負責轉發用戶請求,二者功能不同但相互配合。
  7. 服務框架介紹:介紹vLLM、文本生成推理(TGI)、CTranslate2、DeepSpeed - MII、OpenLLM、Ray Serve、MLC LLM等框架,對比其用法、特色功能、優勢和局限性,為不同需求提供選擇參考。
  8. 結論與建議:內存管理對LLM性能至關重要,不同框架在不同方面各有優劣。根據追求速度、HuggingFace支持、CPU推理、使用適配器等不同需求,可選擇相應的框架。

19. 2W8000字揭秘RAG:從基礎到高級的逆襲,徹底重塑大模型!
文章圍繞檢索增強生成(RAG)技術展開,全面且深入地介紹了從基礎概念到高級技術、應用場景以及性能評估等多方面的內容,具體如下:

  1. RAG增強技術分類:涵蓋基礎RAG、高級RAG和模塊化RAG三種范式,其基本流程包括索引構建、檢索和生成三個關鍵步驟。
  2. 基礎RAG的問題:在索引構建、檢索、生成三個環節均存在問題,如信息提取不完整、召回率低、大語言模型生成錯誤等,有很大的優化提升空間。
  3. 高級RAG
    • 關鍵特征:采用先進檢索算法、增強檢索數據整合、具備迭代優化能力和反饋循環學習機制。
    • 優化階段:檢索前優化聚焦數據索引和查詢處理;檢索優化圍繞嵌入模型展開,還包括混合搜索等技術;檢索后優化通過提示壓縮、重新排序和過濾等操作,提升文本生成質量。
  4. 高級RAG技術
    • 檢索前技術:介紹PDF解析、上下文豐富、查詢改寫、語義分塊、數據修改、查詢路由等多種技術,每種技術都針對基礎RAG的問題提出解決方案,如不同的PDF解析方法、多種查詢改寫算法等。
    • 檢索技術:融合檢索/混合搜索結合傳統與現代搜索優勢,借助逆序排名融合算法提升檢索效果。
    • 檢索后技術:提示壓縮、重新排序、過濾、Self - RAG、校正檢索增強生成(CRAG)、RAG融合等技術,從不同角度優化檢索結果,提高生成內容的質量和相關性。
  5. 生成技術:包括增強和定制兩方面。前者利用如“演示 - 搜索 - 預測”等框架優化生成過程;后者通過參數知識引導等方法定制大語言模型輸出。
  6. 聊天引擎:構建RAG系統需考慮聊天邏輯,通過查詢壓縮技術處理對話上下文,如ContextChatEngine和CondensePlusContextMode等實現方式。
  7. RAG中的智能體:智能體為大語言模型提供工具執行任務,OpenAI Assistants具備多種實用工具,多文檔智能體方案可實現復雜的文檔處理功能,但存在速度較慢的問題。
  8. 編碼器和大語言模型微調:對Transformer編碼器、排序器和大語言模型進行微調,可以提升檢索質量和生成答案的能力,但要注意可能存在的問題,如使用小型合成數據集微調可能降低模型整體能力。
  9. 評估:有多種評估RAG系統性能的框架,如Ragas、OpenAI的方法、LangChain的LangSmith等,通過答案相關性、忠實度等指標評估系統表現。

20. 3W4000字 大模型評估全解析:方法、指標與框架
這篇文章圍繞大語言模型評估展開,詳細介紹了評估方法、指標、框架等內容,旨在幫助讀者全面了解大語言模型評估體系,具體如下:

  1. 評估的重要性與思路:大語言模型應用廣泛,但如何評估其有效性至關重要。選擇模型時,不能僅依賴提示工程,要根據是否有標準答案、是否需自動化評估、有無時間限制等因素,選擇合適的評估策略,如準確率、相似性指標、大語言模型評判器或人工評估等。
  2. 基準測試與評估的差異:基準測試是標準化測試,用預定義數據集和指標評估模型在特定任務上的表現,便于比較和量化結果;評估范圍更廣,除測試外還考慮模型實際適用性、公平性、可解釋性等,常以基準測試為基礎。
  3. 大語言模型基準測試
    • 框架與能力評估:基準測試框架通過標準化測試評估模型推理、理解等多種能力,涵蓋推理和常識、語言理解、編碼、對話等多個方面。
    • 主要基準測試:介紹語言理解和問答、常識和推理、編碼、對話和聊天機器人等領域的常用基準測試,如TruthfulQA、MMLU、ARC、HumanEval、Chatbot Arena等。
    • 局限性:基準測試存在領域相關性差、生命周期短等問題,但可通過合成數據生成等方法克服。
  4. 評估指標:評估指標根據任務需求對模型輸出評分,優秀指標具有可量化、可靠、準確的特點。計算指標分數的方法包括統計評分器、基于模型的評分器,以及結合兩者的評分器,不同方法各有優劣。
  5. 評估基于大語言模型的應用:依據交互模式和預期答案類型選擇評估指標,如知識尋求、文本關聯、創造力等交互模式。評估前要先評估評估策略與人類判斷的相關性,構建評估集時要保證數據集足夠大且能代表生產環境數據。
  6. 大語言模型評估框架:介紹DeepEval等多種評估框架,其中DeepEval是開源框架,具有易“單元測試”、指標豐富、可自定義等特點,還介紹了其在評估RAG相關指標及微調指標方面的應用。

21. 2W6000字 大模型核心技術綜述:微調、推理與優化指南
這篇文章圍繞大語言模型展開,涵蓋模型基礎概念、架構發展、訓練優化、推理參數、提示工程以及模型優化技術等多方面內容。

  1. 大語言模型基礎:大語言模型(LLM)是基于Transformer架構的深度學習模型,在大量數據上預訓練,能理解文本關系。語言模型學習文本語料庫生成概率,預測后續單詞,經歷了從n - gram到神經語言模型的發展。
  2. 架構發展:早期大語言模型多基于RNN及LSTM、GRU,但存在訓練慢、梯度消失等問題。Transformer架構解決了這些問題,它采用自注意力機制,可并行處理,訓練時間短,成為當前大語言模型的主流架構。
  3. 訓練與優化:預訓練階段在大量文本上自監督訓練,計算成本高。數據并行訓練技術如分布式數據并行(DDP)和全分片數據并行(FSDP)可解決內存問題。微調能讓模型適應特定任務,遷移學習、PEFT等多種技術可實現高效微調。
  4. 推理參數:使用大語言模型推理時,可配置Top-k采樣、溫度參數、Top-P采樣、最大長度、上下文提示等參數,控制輸出的多樣性、連貫性和長度。
  5. 提示工程:提示工程是與大語言模型溝通的方法,通過構建提示引導模型行為。包括少樣本提示、思維鏈(CoT)提示、PAL、ReAct提示等,能提升模型在不同任務中的表現。
  6. 模型優化技術:模型壓縮方法有量化、蒸餾和剪枝。量化通過降低權重精度減小模型大小,有訓練后量化和量化感知訓練兩種方式;蒸餾將教師模型知識轉移到學生模型;剪枝通過修剪權重或連接減小模型大小,分非結構化和結構化剪枝。

22. 1W8000 字 探秘 RAG 應用搜索:從語義搜索到評估指標的深度解析
本文圍繞檢索增強生成(RAG)應用程序中的搜索過程展開探討,涵蓋搜索優勢、面臨問題、搜索類型、檢索算法等多方面內容,強調持續優化和全面評估的重要性。

  1. RAG應用中的搜索概述:在RAG流程里,用戶查詢經分詞和嵌入處理后,從知識庫提取相關文本塊。以開發客戶支持聊天機器人為例,該方式能減少大語言模型處理數據的時間和資源,支持數據庫實時更新,提升回復質量和客戶滿意度。
  2. 搜索與檢索的問題及優化
    • 存在問題:獨特或高度特定的查詢可能導致系統匹配不到完全相關的文本塊,使大語言模型回復不理想,降低用戶滿意度。
    • 預防策略:監測查詢密度,若其漂移則擴充向量存儲;關注排名指標評估系統性能;收集用戶反饋,依此調整應用程序。
    • 優化措施:構建階段注重測試和評估,優化分塊策略和檢索性能;生產后階段持續擴展知識庫、優化分塊策略、增強上下文理解。
  3. 搜索類型
    • 關鍵詞搜索:適用于用戶明確搜索內容,期望精確匹配的場景,無需向量數據庫。
    • 向量搜索:適用于用戶搜索目標不明確的情況,需向量數據庫支持。
    • 混合搜索:結合全文關鍵詞搜索和向量搜索結果,并用交叉編碼器模型重新排名,需要文檔數據庫和向量數據庫。
  4. 檢索算法: 相似性搜索常用余弦相似度等度量返回相似文檔,最大邊際相關性(MMR)則在檢索時考慮文檔間相似程度,使結果更具多樣性。
  5. 檢索與重排:復雜搜索任務中,先通過檢索系統(如詞匯搜索或密集檢索)獲取候選文檔,再用基于交叉編碼器的重排器對其相關性評分排序,以提升搜索效果。文中還介紹了預訓練雙編碼器和交叉編碼器的使用。
  6. 信息檢索的評估:評估指標分在線指標(如點擊率,反映用戶交互情況)和離線指標(在部署前測量,關注檢索結果相關性)。離線指標又分無序敏感指標(如召回率@K )和有序敏感指標(如平均倒數排名、平均精度均值@K、歸一化折損累計增益@K )。實際應用中可多個指標結合使用,提升評估準確性。

本文由 mdnice 多平臺發布

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/72359.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/72359.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/72359.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

SP導入智能材質球

智能材質球路徑 ...\Adobe Substance 3D Painter\resources\starter_assets\smart-materials 放入之后就會自動刷新

網絡原理----TCP/IP(3)

核心機制七----延時應答 默認情況下,接收方都是在收到數據報的第一時間,就返回ack,但是可以通過延時返回ack的方式來提高效率,理論上不是100%提高效率,但還是有一定幫助的。 因為如果接收數據的主機?刻返回ACK應答,…

MacBook Pro使用FFmpeg捕獲攝像頭與麥克風推流音視頻

FFmpeg查看macos系統音視頻設備列表 ffmpeg -f avfoundation -list_devices true -i "" 使用攝像頭及麥克風同時推送音頻及視頻流: ffmpeg -f avfoundation -pixel_format yuyv422 -framerate 30 -i "0:1" -c:v libx264 -preset ultrafast -b:v 1000k -…

部署Joplin私有云服務器postgres版-docker compose

我曾經使用過一段時間 Joplin,官方版本是收費的,而我更傾向于將數據掌握在自己手中。因此,在多次權衡后,我決定自己搭建 Joplin 服務器并進行嘗試。 個人搭建的版本與數據庫直連,下面是使用 Docker Compose 配置數據庫…

SQL的select語句完整的執行順序

SQL的SELECT語句的執行順序可以用"做菜流程"來類比理解。雖然我們寫SQL時按SELECT…FROM…WHERE…順序寫,但數據庫執行順序完全不同。以下是通俗易懂的講解(附流程圖和示例): 🔧 執行順序流程圖&#xff1a…

Spring Cloud LoadBalancer詳解

一、介紹 Spring Cloud LoadBalancer是Spring Cloud官方自己提供的客戶端負載均衡器,抽象和實現,用來替代Ribbon(已經停更), 二、Ribbon和Loadbalance 對比 組件組件提供的負載策略支持負載的客戶端Ribbon隨機 RandomRule輪詢 RoundRobinRule 重試 RetryRule最低并發 Bes…

ubuntu中ollama設置記錄

自己同一臺電腦主機安裝3080和3090顯卡,測試發現ollama只默認跑在3090上;故查看一下設置,成功也把3080也運行起來了。 原因如下: 開始設置記錄: Environment Variables: OLLAMA_DEBUG 作用:顯示額外的調試…

RabbitMQ系列(四)基本概念之Exchange

在 RabbitMQ 中,Exchange(交換機) 是消息路由的核心組件,負責根據規則將生產者發送的消息分發到對應的隊列(Queue)中。以下是其核心功能與分類的詳細說明: 一、Exchange 的核心作用 消息路由樞…

有沒有什么免費的AI工具可以幫忙做簡單的ppt?

互聯網各領域資料分享專區(不定期更新): Sheet 正文 1. 博思AIPPT 特點:專為中文用戶設計,支持文本/文件導入生成PPT,內置海量模板和智能排版功能,涵蓋商務、教育等多種場景。可一鍵優化布局、配色,并集成AI繪圖功能(文生圖/圖生圖)。適用場景:職場匯報、教育培訓、商…

【Python · PyTorch】循環神經網絡 RNN(基礎應用)

【Python PyTorch】循環神經網絡 RNN(簡單應用) 1. 簡介2. 模擬客流預測(數據集轉化Tensor)3.1 數據集介紹3.2 訓練過程 3. 模擬股票預測(DataLoader加載數據集)3.1 IBM 數據集3.1.2 數據集介紹3.1.3 訓練…

【JSON2WEB】15 銀河麒麟操作系統下部署JSON2WEB

【JSON2WEB】系列目錄 【JSON2WEB】01 WEB管理信息系統架構設計 【JSON2WEB】02 JSON2WEB初步UI設計 【JSON2WEB】03 go的模板包html/template的使用 【JSON2WEB】04 amis低代碼前端框架介紹 【JSON2WEB】05 前端開發三件套 HTML CSS JavaScript 速成 【JSON2WEB】06 JSO…

地基簡識Spring MVC 組件

Spring MVC 是一個基于 MVC 設計模式的框架,其核心組件協同工作以處理 HTTP 請求并生成響應。以下是各組件的詳細說明及其協作流程: 一、?核心組件 ?DispatcherServlet(前端控制器)? ?作用:接收所有請求并協調其他…

Spring Boot(七):Swagger 接口文檔

1. Swagger 簡介 1.1 Swagger 是什么? Swagger 是一款 RESTful 風格的接口文檔在線自動生成 功能測試功能軟件。Swagger 是一個規范和完整的框架,用于生成、描述、調用和可視化 RESTful 風格的 Web 服務。目標是使客戶端和文件系統作為服務器以同樣的…

cursor 彈出在簽出前,請清理倉庫工作樹 窗口

問題出現的背景:是因為我有兩臺電腦開發,提交后,另一個電腦的代碼是舊的,這個時候我想拉取最新的代碼,就會出現如下彈窗,因為這個代碼暫存區有記錄或者工作區有代碼的修改,所以有沖突&#xff0…

Cocos Creator3.8.6拖拽物體的幾種方式

文章目錄 前言一、第一種通過UILocation二、第二種通過UIDelta實現總結 前言 在游戲開發中,拖拽物體是一個非常常見的交互功能,無論是用于UI元素的拖動,還是場景中物體的移動,拖拽操作都能極大地提升用戶體驗。Cocos Creator 3.8…

在 Mac mini M2 上本地部署 DeepSeek-R1:14B:使用 Ollama 和 Chatbox 的完整指南

隨著人工智能技術的飛速發展,本地部署大型語言模型(LLM)已成為許多技術愛好者的熱門選擇。本地部署不僅能夠保護隱私,還能提供更靈活的使用體驗。本文將詳細介紹如何在 Mac mini M2(24GB 內存)上部署 DeepS…

《UE5_C++多人TPS完整教程》學習筆記33 ——《P34 關卡與大廳之間的過渡(Transition Level And Lobby)》

本文為B站系列教學視頻 《UE5_C多人TPS完整教程》 —— 《P34 關卡與大廳之間的過渡(Transition Level And Lobby)》 的學習筆記,該系列教學視頻為計算機工程師、程序員、游戲開發者、作家(Engineer, Programmer, Game Developer,…

Nginx 配置與常用命令速查手冊

Nginx 配置文件結構 Linux 中 Nginx 的配置文件: 通常位于 /etc/nginx/nginx.conf 或 /usr/local/nginx/conf/nginx.conf。 Nginx 采用模塊化設計,主要分為以下部分: 1. 全局塊 配置與服務器整體相關的參數,如工作進程數、日…

Vscode 便用快捷鍵設置教程

文章目錄 簡介:1. go to define (跳轉到函數定義的位置)2. go to declaration (跳轉到函數聲明的位置)3. move line (上下移動本行代碼)3.1上下復制本行代碼 4. 前進和后退(就是前進到光標上一次停留的位置,和后退到那…

Vim 常用快捷鍵大全:跳轉、編輯、查找替換全解析

摘要: Vim 是一款非常強大的文本編輯器,許多程序員和系統管理員都離不開它。 本文詳細介紹了 Vim 編輯器中的常用快捷鍵和命令,從基本模式、光標移動、編輯操作到查找替換,再到文件保存等常用操作,幫助你快速上手并提…