MATLAB 2024b深度學習工具箱通過架構創新與功能強化,為科研創新和行業應用提供了全棧式解決方案。
?
第一:MATLAB 2024b深度學習工具箱新特性
1、MATLAB?Deep Learning Toolbox
2、實時腳本(Live?Script)與交互控件(Control)功能
3、批量大數據導入及Datastore類函數功能
4、數據清洗(Data?Cleaning)功能
5、深度網絡設計器(Deep Network Designer)功能
6、實驗管理器(Experiment Manager)功能
7、MATLAB Deep?Learning Model Hub
8、MATLAB與TensorFlow、PyTorch等深度學習框架協同工作功能
9、MATLAB Deep?Learning Toolbox Examples
第二:卷積神經網絡(Convolutional Neural Network, CNN)
1、深度學習與傳統機器學習的區別與聯系
2、卷積神經網絡的基本原理
3、LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等經典深度神經網絡的區別與聯系
4、預訓練模型(Alexnet、Vgg-16/19、GoogLeNet、ResNet等)的下載與安裝
5、優化算法(梯度下降、隨機梯度下降、小批量隨機梯度下降、動量法、Adam等)
6、調參技巧(參數初始化、數據預處理、數據擴增、批量歸一化、超參數優化、網絡正則化等)
7、(1)CNN預訓練模型實現物體識別;(2)利用卷積神經網絡抽取抽象特征;(3)自定義卷積神經網絡拓撲結構;(4)1D CNN模型解決回歸擬合預測問題
第三:模型可解釋性與特征可視化Model Explanation and Feature Visualization
1、什么是模型可解釋性?為什么要對CNN模型進行解釋?
2、常用的可視化方法有哪些(特征圖可視化、卷積核可視化、類別激活可視化等)?
3、CAM(Class Activation Mapping)、GRAD-CAM、LIME(Local Interpretable Model-agnostic Explanation)、t-SNE等方法原理
4、基于CAM/Grad-CAM的卷積神經網絡模型的特征可視化
第四:遷移學習算法(Transfer Learning)
1、遷移學習算法的基本原理
2、基于深度神經網絡模型的遷移學習算法
3、基于Alexnet預訓練模型的模型遷移
第五:循環神經網絡與長短時記憶神經網絡(RNN & LSTM)
1、循環神經網絡(RNN)與長短時記憶神經網絡(LSTM)的基本原理
2、RNN與LSTM的區別與聯系
3、(1)時間序列預測;(2)序列-序列分類
第六:時間卷積網絡(Temporal Convolutional Network, TCN)
1、時間卷積網絡(TCN)的基本原理
2、TCN與1D CNN、LSTM的區別與聯系
3、(1)時間序列預測:新冠肺炎疫情預測;(2)序列-序列分類:人體動作識別
第七:生成式對抗網絡(Generative Adversarial Network)
1、生成式對抗網絡GAN
2、向日葵花圖像的自動生成
第八:自編碼器(AutoEncoder)
1、自編碼器的組成及基本工作原理
2、經典自編碼器
3、基于自編碼器的圖像分類
第九:目標檢測YOLO模型
1、什么是目標檢測?目標檢測與目標識別的區別與聯系?YOLO模型的工作原理(從傳統目標檢測到基于深度學習的目標檢測、從“兩步法”的R-CNN到“一步法”的YOLO、YOLO模型的演化歷史)
2、(1)標注工具Image Labeler功能簡介與演示;(2)使用預訓練模型實現圖像、視頻等實時目標檢測;(3)訓練自己的數據集:新冠疫情佩戴口罩識別
第十:圖像語義分割U-Net模型
1、語義分割(Semantic Segmentation)
2、U-Net模型的基本原理
3、基于U-Net的多光譜圖像語義分割
第十一:注意力機制(Attention)
1、注意力機制的背景和動機。
2、注意力機制的基本原理
3、注意力機制的主要類型:鍵值對注意力機制(Key-Value Attention)、自注意力(Self-Attention)與多頭注意力(Multi-Head Attention)、Soft Attention 與 Hard Attention、全局(Global)與局部(Local)注意力
4、注意力機制的優化與變體:稀疏注意力(Sparse Attention)、自適應注意力(Adaptive Attention)、動態注意力機制(Dynamic Attention)、跨模態注意力機制(Cross-Modal Attention)
5、(1)基于注意力機制的Seq-to-Seq翻譯;(2)基于注意力機制的圖像描述?
第十二:Transformer模型及其在NLP和CV領域的應用
1、Transformer模型的提出背景
2、Transformer模型的進化之路
3、Transformer模型拓撲結構
4、Transformer模型工作原理
5、BERT模型的工作原理
6、GPT系列模型
7、ViT模型(提出的背景、基本架構、與傳統CNN的比較、輸入圖像的分塊處理、位置編碼、Transformer編碼器、分類頭、ViT模型的訓練與優化
8、(1)基于BERT模型的文本分類;(2)基于ViT模型的圖像分類
第十三:物理信息神經網絡(PINN)
1、PINN工作原理:物理定律與方程的數學表達、如何將物理定律嵌入到神經網絡模型中?PINN的架構(輸入層、隱含層、輸出層的設計)、物理約束的形式化(如何將邊界條件等物理知識融入網絡?)損失函數的設計(數據驅動與物理驅動的損失項)
2、基于PINN的微分方程求解
第十四:圖神經網絡(GNN)
1、圖神經網絡的背景和基礎知識
2、圖的基本概念和表示
3、圖神經網絡的工作原理
4、圖卷積網絡(GCN)的工作原理。
5、圖神經網絡的變種和擴展:圖注意力網絡(GAT)、圖同構網絡(GIN)、圖自編碼器、圖生成網絡。
6、(1)基于圖卷積神經網絡的節點分類;(2)基于圖神經網絡的時間序列異常點檢測
第十五:深度學習模型壓縮(Compression)
1、深度學習模型壓縮的常用方法
2、Deep Learning Toolbox Model Compression Library的安裝與模型壓縮
3、基于Deep Network Designer的模型壓縮
第十六:MATLAB接入ChatGPT/DeepSeek等大語言模型
1、Ollama下載與安裝
2、Large Language Models (LLMs) with MATLAB下載與安裝
3、ChatGPT API Key配置與MATLAB接入ChatGPT對話
4、本地部署DeepSeek大語言模型與MATLAB接入DeepSeek對話