文章目錄
- 前言
- 一、ChatGLMForConditionalGeneration類源碼解讀
- 1、ChatGLMForConditionalGeneration類源碼
- 2、self.transformer方法源碼
- 3、loss_fct = CrossEntropyLoss(ignore_index=-100)方法Demo
- 二、ChatGLMModel類源碼解讀
- 三、GLMTransformer結構源碼解讀
- 四、GLMBlock結構源碼解讀
- 五、GLM的self.self_attention結構源碼解讀
- 六、GLM的CoreAttention結構源碼解讀
前言
清華智普的GLM-4v-9b模型,作為優化的多模態大模型,特別適用于國內應用場景,解決了國外模型本地化不足的問題。本專欄提供環境安裝、數據處理、視覺與語言模型源碼理解,并基于Hugging Face重構GLM模型搭建教程,幫助理解、修改和應用GLM模型,指導搭建多模態大模型,幫助讀者自由搭建與修改大模型。本節給出GLM-4-9B模型的視覺加載源碼解讀內容。
第一節:GLM-4v-9B大模型安裝、推理與訓練詳細教程
第二節:GLM-4v-9B數據加載源碼解讀
第三節:GLM-4v-9B數據加載之huggingface數據加載方法教程(通用大模型數據加載實列)
第四節:GLM-4v-9b模型的tokenizer源碼解讀
第五節:GLM-4v-9b模型model加載源碼解讀(模型相關參數方法解讀)
第六節:GLM-4v-9b模型加載源碼解讀(模型加載方法解讀)
第七節:GLM-4v-9b模型的視覺模型源碼解讀
第八節:GLM-4v-9b模型的大語言模型源碼解讀(ChatGLMForConditionalGeneration)
第九節:通過Debug解析ChatGLMForConditionalGeneration的數據流,理解GLM-4v-9b模型架構
第十節:通過Debug解析ChatGLMModel的數據流