目錄
什么是大語言模型(LLM)?它與傳統語言模型的本質差異在哪里?
自回歸模型(autoregressive)與掩碼語言模型(masked LM)的異同是什么?各適合于哪些任務?
Transformer 的核心構件——多頭自注意力機制如何捕捉長距離依賴?
位置編碼(positional encoding)的作用及其實現形式有哪些?它解決了什么問題?
BPE、WordPiece 和 SentencePiece 各自的原理與優劣是什么?
Token embedding 的維度如何選取?它對模型性能有什么影響?
什么是“Chinchilla scaling”,它指明了預訓練模型的計算與數據如何均衡?
LLM 為什么容易“hallucination”?其根源是什么?如何緩解?
大模型中具有什么樣的偏見(bias)?其來源是什么?如何衡量與減輕?
RLHF(Reinforcement Learning from Human Feedback)是什么?工作過程如何?
一、RLHF的核心流程
二、關鍵技術細節
三、典型應用場景與效果
四、挑戰與局限
什么是“Chinchilla scaling”,它指明了預訓練模型的計算與數據如何均衡?
LLM 為什么容易“hallucination”?其根源是什么?如何緩解?
一、模型架構的本質缺陷
二、訓練數據的不完整性與偏差
三、推理過程的不確定性
緩解幻覺的主要方法
大模型中具有什么樣的偏見(bias)?其來源是什么?如何衡量與減輕?
RLHF(Reinforcement Learning from Human Feedback)是什么?工作過程如何?
為什么要使用混合精度(mixed-precision)訓練?
分布式訓練框架有哪些?如 DeepSpeed、Accelerate 的作用與原理?
模型剪枝(pruning)和量化(quantization)對推理性能的提升機理為何?
什么是大語言模型(LLM)?它與傳統語言模型的本質差異在哪里?
自回歸模型(autoregressive)與掩碼語言模型(masked LM)的異同是什么?各適合于哪些任務?
智能調度器 “scheduler” 在訓練學習率曲線設計中的作用?
在多語言數據集上訓練時,如何處理語言不均衡?
微調(Fine-tuning)和提示調優(Prompt Tuning)有何區別?
Prompt Tuning 的工作方式與優缺點是什么?
Prefix Tuning 又是怎樣通過前綴提升模型效果的?
Adapter 模塊在微調任務中的作用與結構是什么?
instruction?tuning 前后模型性能差距體現在什么方面?
Prompt Tuning 的工作方式與優缺點是什么?
Prefix Tuning 又是怎樣通過前綴提升模型效果的?
LoRA(低秩適配)技術如何有效減少微調參數?
Adapter 模塊在微調任務中的作用與結構是什么?
instruction?tuning 前后模型性能差距體現在什么方面?
Prompt Tuning 的工作方式與優缺點是什么?
Prefix Tuning 又是怎樣通過前綴提升模型效果的?
LoRA(低秩適配)技術如何有效減少微調參數?
instruction?tuning 前后模型性能差距體現在什么方面?
GPT?x 系列模型一般用哪些 benchmark 與 leader-board?
A/B 測試在實際產品中怎么落地并決定上線版本?
模型存在偏見的場景中,如何構建 fairness 測試集?
latency、throughput、memory usage 三者如何在模型評估中結合衡量?
面向用戶體驗的端到端模型評估流程包含哪些環節?
LLM 如何成為 Agent 與外部工具對接?ReAct、Toolformer 原理是什么?
多輪對話系統中 memory 和 context 如何管理?
如何設計向量檢索服務成本架構?包括索引存儲與檢索延時規劃?
在 serverless / cloud 環境部署 LLM 面臨什么挑戰?
為什么企業更多選擇 Docker+K8s 部署 LLM?
如何監控線上模型真實性能?如實時監控 hallucination 率?
模型的自動更新如何做?deployment blue/green、canary 策略如何配合提示?
什么是大語言模型(LLM)?它與傳統語言模型的本質差異在哪里?
大語言模型(LLM)是基于深度學習技術