Seal^_^【送書活動第8期】——《ChatGLM3大模型本地化部署、應用開發與微調》
- 一、參與方式
- 二、本期推薦圖書
- 2.1 作者建語
- 2.2 編輯推建
- 2.3 圖書簡介
- 2.4 前 言
- 2.5 目 錄
- 三、正版購買
大模型領域 既是繁星點點的未知宇宙,也是蘊含無數可能的廣闊天地,
正是這一獨特的魅力,令無數的探索者為之傾倒,為之奮斗。
隨著大模型應用逐漸走入人們的日常生活,支撐它的深度學習技術也開始登上更為廣闊和深遠的人工智能大舞臺。
一、參與方式
1、關注博主的賬號。
2、點贊、收藏、評論博主的文章。
3、在文章下留下評論,每位參與者最多可以評論三次。
4、加入粉絲群,通過小程序自動抽獎。
📚 本次將 送出2本 書籍。
🕚 活動截止時間為 2024年7月10日晚上8點整。
?注意:
活動結束后,請留意查看您的私信消息。
加入粉絲群,通過小程序自動抽獎。
二、本期推薦圖書
2.1 作者建語
王曉華,高校計算機專業講師,研究方向為云計算、大數據與人工智能。著有《PyTorch語音識別實戰》《從零開始大模型開發與微調:基于PyTorch與ChatGLM》《PyTorch 2.0深度學習從零開始學》《Python機器學習與可視化分析實戰》《谷歌JAX深度學習從零開始學》《Spark 3.0大數據分析與挖掘:基于機器學習》《TensorFlow深度學習應用實踐》《OpenCV+TensorFlow深度學習與計算機視覺實戰》《TensorFlow知識圖譜實戰》《TensorFlow人臉識別實戰》《TensorFlow語音識別實戰》《TensorFlow+Keras自然語言處理實戰》《TensorFlow 2.0卷積神經網絡實戰》《Keras實戰:基于TensorFlow2.2的深度學習實踐》《TensorFlow 2.0深度學習從零開始學》《深度學習的數學原理與實現》。
2.2 編輯推建
"通過多個實戰案例,快速掌握大模型應用開發與微調技術
基于網頁端的ChatGLM3部署
基于私有云服務的ChatGLM3部署
貓狗分類可視化訓練與預測
搭建專業問答機器人
實戰知識圖譜抽取與智能問答
撰寫劇情梗概、評論與宣傳文案實戰
多文本檢索的增強生成實戰
結合提示工程的網頁搜索服務實戰
基于ChatGLM3的思維鏈實戰
GLM文本生成實戰
單GPU微調ChatGLM3實戰
個人助理之美妝助手實戰
上市公司財務報表非結構化信息抽取實戰
上市公司財務報表智能問答與財務預警實戰
2.3 圖書簡介
《ChatGLM3大模型本地化部署、應用開發與微調》作為《PyTorch 2.0深度學習從零開始學》的姊妹篇,專注于大模型的本地化部署、應用開發以及微調等。《ChatGLM3大模型本地化部署、應用開發與微調》不僅系統地闡述了深度學習大模型的核心理論,更注重實踐應用,通過豐富的案例和場景,引導讀者從理論走向實踐,真正領悟和掌握大模型本地化應用的精髓。
全書共分13章,全方位、多角度地展示了大模型本地化實戰的完整方案,內容包括大模型時代的開端、PyTorch 2.0深度學習環境搭建、基于gradio的云上自托管ChatGLM3部署實戰、使用ChatGLM3與LangChain實現知識圖譜抽取和智能問答、適配ChatGLM3終端的Template與Chain詳解、ChatGLM3多文本檢索的增強生成實戰、構建以人為本的ChatGLM3規范化Prompt提示工程、使用ChatGLM3的思維鏈構建、GLM源碼分析與文本生成實戰、低資源單GPU微調ChatGLM3實戰、會使用工具的ChatGLM3、上市公司財務報表非結構化信息抽取實戰、上市公司財務報表智能問答與財務預警實戰。
《ChatGLM3大模型本地化部署、應用開發與微調》適合大模型的初學者、有一定基礎的大模型研究人員、大模型應用開發人員。同時,《ChatGLM3大模型本地化部署、應用開發與微調》還可作為高等院校或高職高專相關專業大模型課程的教材,助力培養新一代的大模型領域人才。
2.4 前 言
大模型領域既是繁星點點的未知宇宙,也是蘊含無數可能的廣闊天地,正是這一獨特的魅力,令無數的探索者為之傾倒,為之奮斗。隨著大模型應用逐漸走入人們的日常生活,支撐它的深度學習技術也開始登上更為廣闊和深遠的人工智能大舞臺。
關于本書
本書將揭示大模型ChatGLM3的本地化實戰應用,帶領讀者領略ChatGLM3的高級應用之美.書中不僅詳細如何進行ChatGLM3的私有云部署、開發應用、構建思維鏈以及在有限資源條件下的微調方法,為了讓讀者更深入地了解ChatGLM3的模型架構,還將解析GLM系列模型的源碼,并完成一項文本生成任務。本書的最后將通過實現基于自然語言的真實上市公司大規模年度財務報表非結構化信息抽取實戰、智能問答與財務預警實戰,展現大模型應用的美好前景。這兩個實戰案例將融合本書前面介紹的所有知識,從大模型程序應用入手,涉及微調以及工具的使用,并結合具體的業務知識背景,為讀者帶來一次深度學習的完整體驗。
本書涉及的深度學習編程方法與技巧以PyTorch為主。PyTorch因其易用性和普及性而成為深度學習領域的翹楚。當然,本書只是圍繞大模型的應用進行深入剖析,若想了解更多關于深度學習的內容,例如卷積神經網絡、循環神經網絡等模塊的構建和使用方法,強烈推薦參閱《PyTorch 2.0深度學習從零開始學》。
本書作為《PyTorch 2.0深度學習從零開始學》的姊妹篇,不僅延續了《PyTorch 2.0深度學習從零開始學》中的核心理念與知識體系,更將深度學習引向了一個新的高度,專注于大模型的本地化研究與應用。本書將幫助讀者深入理解深度學習與大模型的精髓,探尋其背后的思維邏輯和創新精神。在這個過程中,讀者不僅能學習到理論知識,更能感受到大模型背后的力量與智慧,從而為自己在這一領域的研究和 實踐提供有力的支撐。
2.5 目 錄
第1章 大模型時代的開端 11.1 大模型的歷史與發展 11.1.1 大模型的“涌現” 11.1.2 深度學習與大模型的起源 31.1.3 大模型的概念與特點 41.1.4 大模型開啟了深度學習的新時代 51.2 為什么要使用大模型 61.2.1 大模型與普通模型的區別 71.2.2 為什么選擇ChatGLM 81.2.3 大模型應用場合與發展趨勢 91.3 本章小結 10第2章 PyTorch 2.0深度學習環境搭建 112.1 安裝Python開發環境 122.1.1 Miniconda的下載與安裝 122.1.2 PyCharm的下載與安裝 142.1.3 softmax函數練習 182.2 安裝PyTorch 2.0 192.2.1 NVIDIA 10/20/30/40系列顯卡選擇的GPU版本 192.2.2 PyTorch 2.0 GPU NVIDIA運行庫的安裝 192.2.3 Hello PyTorch 222.3 Hello ChatGLM3 232.3.1 ChatGLM3簡介與安裝 232.3.2 CPU版本的ChatGLM3推演 252.3.3 GPU(INT4或INT8量化)版本的ChatGLM3推演 262.3.4 GPU(half或float量化)版本的ChatGLM3推演 282.3.5 離線狀態的ChatGLM3的使用 292.3.6 ChatGLM的高級使用 302.4 本章小結 31第3章 基于gradio的云上自托管ChatGLM3部署實戰 323.1 gradio的基本使用詳解 323.1.1 從gradio的Interface開始 333.1.2 gradio輸入與輸出組件 353.1.3 啟動gradio的launch 413.1.4 gradio中多樣化的輸入和輸出組件 423.1.5 gradio中常用的幾個組件 453.1.6 使用gradio搭建視頻上色服務 573.2 基于gradio的貓狗分類可視化訓練與預測實戰 593.2.1 運行環境與數據集的準備 603.2.2 模型的設計 633.2.3 PyTorch模型訓練的基本流程 643.2.4 可視化訓練流程 653.2.5 使用訓練好的模型完成gradio可視化圖像分類 673.3 基于網頁端的ChatGLM3部署和使用 693.3.1 使用gradio搭建ChatGLM3網頁客戶端 703.3.2 使用ChatGLM3自帶的網頁客戶端 713.4 基于私有云服務的ChatGLM3部署和使用 723.4.1 使用FastAPI完成ChatGLM3私有云交互端口的搭建(重要) 733.4.2 基于streamlit的ChatGLM3自帶的網頁客戶端 743.5 本章小結 74第4章 使用ChatGLM3與LangChain實現知識圖譜抽取和智能問答 754.1 當ChatGLM3遇見LangChain 764.1.1 LangChain的基本構成、組件與典型場景 764.1.2 確認統一地址的ChatGLM3部署方案 784.1.3 使用ChatGLM3構建LangChain的LLM終端 784.1.4 從一個簡單的提示模板開始 814.1.5 ChatGLM3格式化提示詞的構建與使用 824.2 ChatGLM3+ LangChain搭建專業問答機器人 844.2.1 使用LangChain的LLM終端完成文本問答 844.2.2 數據準備與基礎算法分析 864.2.3 使用LangChain完成提示語Prompt工程 874.2.4 基于ChatGLM3的LLM終端完成專業問答 884.3 使用ChatGLM3的LLM終端搭建知識圖譜抽取與智能問答 894.3.1 基于ChatGLM3的LLM終端完成知識圖譜抽取 894.3.2 基于ChatGLM3的LLM終端完成智能問答 914.4 本章小結 92第5章 適配ChatGLM3終端的Template與Chain詳解 935.1 基于輸入模板的人機交互 935.1.1 提示模板的4種類型 945.1.2 可嵌套的提示模板 955.2 Template中示例的最佳選擇 975.2.1 基于長度的輸出示例 975.2.2 基于相似度的輸出示例 995.3 使用Chain提高ChatGLM3的能力 1005.3.1 Chain的數學計算方法 1015.3.2 多次驗證檢查器 1015.4 LangChain中的記憶功能 1025.4.1 ConversationChain會話鏈的使用 1025.4.2 系統memory的使用 1035.5 基于ChatGLM3終端撰寫劇情梗概、評論與宣傳文案實戰 1055.5.1 對過程進行依次調用的順序鏈SimpleSequentialChain 1055.5.2 對過程進行依次調用的順序鏈SequentialChain 1075.5.3 對順序鏈添加額外參數的方法 1095.6 本章小結 111第6章 ChatGLM3多文本檢索的增強生成實戰 1126.1 使用自然語言處理方法對目標進行查找 1136.1.1 數據集的準備 1136.1.2 分別基于BM25與LLM終端進行目標查找的方法 1146.1.3 建立工業級標準化輸出:LLM終端與BM25結合 1166.2 基于LLM終端完成文本內容抽取與文本問答 1186.2.1 讀取目標內容 1186.2.2 LangChain對文檔的讀取與分割方法 1196.2.3 基于LangChain的文本分塊 1236.2.4 找到最近似問題的文本段落 1246.2.5 使用LLM終端完成智能文本問答 1256.3 使用LLM終端完成反向問題推斷 1276.3.1 文本問題提取實戰 1276.3.2 存儲提取后的內容 1306.4 本章小結 131第7章 構建以人為本的ChatGLM3規范化Prompt提示工程 1327.1 提示工程模板構建的輸入與輸出格式 1327.1.1 提示模板的輸入格式 1337.1.2 提示模板的輸出格式 1357.2 提示工程模板高級用法 1387.2.1 提示模板的自定義格式 1387.2.2 提示模板的FewShotPromptTemplate格式 1397.2.3 部分格式化的提示模板詳解 1407.3 結合提示工程的網頁搜索服務實戰 1427.3.1 網頁搜索的API實現 1427.3.2 網頁問答提示模板的實現 1437.3.3 結合網頁搜索的LLM終端問答實戰 1447.4 本章小結 145第8章 使用ChatGLM3的思維鏈構建 1468.1 思維鏈初探 1468.1.1 思維鏈源于人類使用自然語言的概念來理解事物 1478.1.2 思維鏈的優勢與應用場景 1478.2 思維鏈詳解及其實戰 1498.2.1 思維鏈詳解 1498.2.2 基于ChatGLM3的思維鏈實戰 1508.3 本章小結 152第9章 GLM源碼分析與文本生成實戰 1539.1 GLM組件詳解 1549.1.1 GLM模型架構重大突破:旋轉位置編碼 1549.1.2 添加旋轉位置編碼的注意力機制 1569.1.3 新型的激活函數GLU詳解 1569.1.4 GLM“三角掩碼”與“錯位”輸入輸出格式詳解 1579.2 GLM整體架構詳解與文本生成實戰 1599.2.1 調整架構順序的GLMBlock 1599.2.2 自定義GLM模型(單文本生成版) 1629.3 本章小結 167第10章 低資源單GPU微調ChatGLM3實戰 16810.1 什么是大模型微調 16810.1.1 大模型微調的作用 16910.1.2 大模型微調技術有哪些 16910.1.3 參數高效微調詳解 17010.2 ChatGLM3大模型微調的準備內容 17110.2.1 從數據準備看ChatGLM3微調:有監督微調詳解 17210.2.2 從實施看ChatGLM3微調:LoRA詳解 17310.2.3 適配ChatGLM3微調的輔助庫:PEFT詳解 17410.3 虛擬客服多輪問答實戰 18010.3.1 ChatGLM3數據輸入結構和處理函數 18110.3.2 ChatGLM3微調訓練 18610.3.3 ChatGLM3微調推理 18910.4 加速的秘密:accelerate訓練方法與模型量化詳解 19110.4.1 加速器accelerate詳解與完整代碼編寫 19210.4.2 加速的秘密1:大模型的量化技術 19510.4.3 加速的秘密2:大模型的INT8量化方案 19610.4.4 加速的秘密3:大模型ChatGLM3中的量化源碼分析與實踐 19810.5 更快的量化訓練方案:QLoRA基礎內容詳解 20010.5.1 加速的秘密4:基于bitsandbytes的ChatGLM3量化QLoRA實現 20010.5.2 加速的秘密5:QLoRA詳解 20210.5.3 微調的目的:讓生成的結果更聚焦于任務 20510.6 QLoRA微調文本生成實戰 20710.6.1 數據處理 20710.6.2 損失函數設計 21010.6.3 基于QLoRA的ChatGLM3文本生成微調實戰 21110.6.4 基于QLoRA的ChatGLM3文本生成 21310.7 本章小結 215第11章 會使用工具的ChatGLM3 21611.1 ChatGLM3調用工具源碼詳解與實戰 21611.1.1 Python調用工具詳解 21711.1.2 ChatGLM3工具調用流程詳解 21811.1.3 大模型ChatGLM3工具調用實戰詳解 22011.1.4 大模型ChatGLM3工具調用原理詳解 22311.1.5 ChatGLM3消息傳遞方式詳解 23011.2 ChatGLM3官方工具注冊與調用源碼分析與實戰 23111.2.1 Python中的裝飾器與回調函數 23111.2.2 ChatGLM3官方工具函數的注冊源碼分析詳解 23311.2.3 大模型ChatGLM3官方工具調用的判定依據詳解 23611.2.4 ChatGLM3官方工具函數的調用分析詳解 23711.2.5 ChatGLM3調用工具分析與實戰演示 23811.3 ChatGLM3實戰:構建個人助理之美妝助手 24011.3.1 背景和參考資料設定 24011.3.2 美妝助手的使用實戰 24611.4 本章小結 247第12章 上市公司財務報表非結構化信息抽取實戰 24912.1 超長文本處理功能的ChatGLM3與真實財務報表的處理 25012.1.1 ChatGLM3-6B-32K模型的獲取與緩存 25012.1.2 超大規模的2020—2023年真實中國股票市場年度財務報表數據庫的建立 25012.2 單報表非結構化信息抽取實戰 25312.2.1 單報表數據探查與提取信息結構化處理 25312.2.2 單報表數據非結構化信息抽取的實現 25412.3 本章小結 256第13章 上市公司財務報表智能問答與財務預警實戰 25713.1 基于ChatGLM3的非結構化數據抽取與大規模財務報表數據庫的建立 25713.1.1 逐行代碼講解使用ChatGLM3對關鍵數據進行抽取 25813.1.2 大規模上市公司財務報表目標字段抽取函數的建立 26013.1.3 大規模上市公司財務報表目標字段數據庫的建立 26213.2 基于自然語言的上市公司財務報表智能問答與財務預警實戰 26413.2.1 使用自然語言結合ChatGLM3實現上市公司財務報表智能問答與預警解決方案1 26413.2.2 使用自然語言結合ChatGLM3-6B實現上市公司財務報表智能問答與預警解決方案2 26713.2.3 使用自然語言結合ChatGLM3實現上市公司財務報表智能問答與預警解決方案3 27013.3 本章小結 272附錄 大模型的“幻覺” 273
三、正版購買
有興趣的朋友可以前往查看。 JD搜索關鍵詞:
? ChatGLM3大模型本地化部署、應用開發與微調,ChatGLM3大模型 ?
🛒 鏈接直達:https://item.jd.com/14575684.html