近年來,隨著AlphaGo、無人駕駛汽車、醫學影像智慧輔助診療、ImageNet競賽等熱點事件的發生,人工智能迎來了新一輪的發展浪潮。尤其是深度學習技術,在許多行業都取得了顛覆性的成果。另外,近年來,Pytorch深度學習框架受到越來越多科研人員的關注和喜愛。本文詳細介紹深度學習的基礎知識,與經典機器學習算法的區別與聯系,以及最新的遷移學習、循環神經網絡、長短時記憶神經網絡、時間卷積網絡、對抗生成網絡、Yolo目標檢測算法、自編碼器等算法的原理及其Pytorch編程實現方法。
郁磊(副教授)主要從事AI人工智能、大語言模型及軟件開發、生理系統建模與仿真、生物醫學信號處理,具有豐富的科研經驗,主編《MATLAB智能算法30個案例分析》、《MATLAB神經網絡43個案例分析》相關著作。已發表多篇高水平的國際學術研究論文。
第一章、ChatGPT在科研中的應用
1、ChatGPT對話初體驗
2、GPT-3.5與GPT-4的區別
3、ChatGPT科研必備插件(Data?Interpreter、Wolfram、WebPilot、MixerBox Scholar、ScholarAI、Show?Me、AskYourPDF等)
4、ChatGPT提示詞使用技巧
5、基于ChatGPT的數據預處理(上傳本地數據、數據預處理、數據可視化)
6、基于ChatGPT的機器學習與深度學習建模(算法原理講解、自動生成代碼、調試代碼)
7、基于ChatGPT的論文寫作(文獻綜述、論文框架、中英翻譯、語法校正、文章潤色等)
第二章、數據清洗
1、描述性統計分析(數據的頻數分析:統計直方圖;數據的集中趨勢分析:算數平均值、標準差;數據的相關分析:相關系數)
2、數據標準化與歸一化(為什么需要標準化與歸一化?)
3、數據異常值、缺失值處理
4、數據離散化及編碼處理
5、手動生成新特征
6、案例
第三章、線性回歸模型
1、一元線性回歸模型與多元線性回歸模型(回歸參數的估計、回歸方程的顯著性檢驗、殘差分析)
2、嶺回歸模型(工作原理、嶺參數k的選擇、用嶺回歸選擇變量)
3、LASSO模型(工作原理、特征選擇、建模預測、超參數調節)
4、Elastic Net模型(工作原理、建模預測、超參數調節)
5、案例
第四章、前向型神經網絡
1、BP神經網絡的基本原理(人工神經網絡的分類有哪些?有導師學習和無導師學習的區別是什么?BP神經網絡的拓撲結構和訓練過程是怎樣的?什么是梯度下降法?BP神經網絡建模的本質是什么?)
2、BP神經網絡的Python代碼實現(怎樣劃分訓練集和測試集?為什么需要歸一化?歸一化是必須的嗎?什么是梯度爆炸與梯度消失?)
3、PyTorch代碼實現神經網絡的基本流程(Data、Model、Loss、Gradient)及訓練過程(Forward、Backward、Update)
4、值得研究的若干問題(隱含層神經元個數、學習率、初始權值和閾值等如何設置?什么是交叉驗證?過擬合(Overfitting)與欠擬合(Underfitting)、泛化性能評價指標的設計、樣本不平衡問題、模型評價與模型選擇(奧卡姆剃刀定律)等)
5、案例:Linear模型、Logistic模型、Softmax函數輸出、BP神經網絡
第五章、KNN、貝葉斯分類與支持向量機
1、KNN分類模型(KNN算法的核心思想、距離度量方式的選擇、K值的選取、分類決策規則的選擇)
2、樸素貝葉斯分類模型(伯努利樸素貝葉斯BernoulliNB、類樸素貝葉斯CategoricalNB、高斯樸素貝葉斯besfGaussianNB、多項式樸素貝葉斯MultinomialNB、補充樸素貝葉斯ComplementNB)
3、SVM的工作原理(SVM的本質是解決什么問題?核函數的作用是什么?什么是支持向量?
4、SVM擴展知識(如何解決多分類問題?SVM除了建模型之外,還可以幫助我們做哪些事情?)
5、案例
第六章、決策樹、隨機森林、XGBoost、LightGBM
1、決策樹的工作原理(微軟小冰讀心術的啟示;什么是信息熵和信息增益?ID3算法和C4.5算法的區別與聯系);決策樹除了建模型之外,還可以幫我們做什么事情?
2、隨機森林的工作原理(為什么需要隨機森林算法?廣義與狹義意義下的“隨機森林”分別指的是什么?“隨機”體現在哪些地方?隨機森林的本質是什么?怎樣可視化、解讀隨機森林的結果?)
3、Bagging與Boosting的區別與聯系
4、AdaBoost?vs. Gradient Boosting的工作原理
5.?常用的GBDT算法框架(XGBoost、LightGBM)
6、案例
第七章、變量降維與特征選擇
1、主成分分析(PCA)的基本原理
2、偏最小二乘(PLS)的基本原理
3、常見的特征選擇方法(優化搜索、Filter和Wrapper等;前向與后向選擇法;區間法;無信息變量消除法;正則稀疏優化方法等)
4、案例
第八章、群優化算法
1、遺傳算法(Genetic Algorithm, GA)的基本原理(粒子群算法、蜻蜓算法、蝙蝠算法、模擬退火算法等與遺傳算法的區別與聯系)
2、遺傳算法的Python代碼實現
3、案例一:一元函數的尋優計算
4、案例二:離散變量的尋優計算(特征選擇)
第九章、卷積神經網絡
1、深度學習簡介(深度學習大事記:Model?+ Big Data + GPU + AlphaGo)
2、深度學習與傳統機器學習的區別與聯系(神經網絡的隱含層數越多越好嗎?深度學習與傳統機器學習的本質區別是什么?)
2、卷積神經網絡的基本原理(什么是卷積核、池化核?CNN的典型拓撲結構是怎樣的?CNN的權值共享機制是什么?)
3、卷積神經網絡的進化史:LeNet、AlexNet、Vgg-16/19、GoogLeNet、ResNet等經典深度神經網絡的區別與聯系
4、利用PyTorch構建卷積神經網絡(Convolution層、Batch?Normalization層、Pooling層、Dropout層、Flatten層等)
5、卷積神經網絡調參技巧(卷積核尺寸、卷積核個數、移動步長、補零操作、池化核尺寸等參數與特征圖的維度,以及模型參數量之間的關系是怎樣的?)
6、案例:
(1)CNN預訓練模型實現物體識別
(2)利用卷積神經網絡抽取抽象特征
(3)自定義卷積神經網絡拓撲結構
第十章、遷移學習
1、遷移學習算法的基本原理(為什么需要遷移學習?為什么可以遷移學習?遷移學習的基本思想是什么?)
2、基于深度神經網絡模型的遷移學習算法
3、案例:貓狗大戰(Dogs?vs. Cats)
第十一章、RNN與LSTM
1、循環神經網絡RNN的基本工作原理
2、長短時記憶網絡LSTM的基本工作原理
3、案例:時間序列預測(北京市污染物預測)
第十二章、目標檢測算法
1、什么是目標檢測?目標檢測與目標識別的區別與聯系
2、YOLO模型的工作原理,YOLO模型與傳統目標檢測算法的區別
3、案例講解:
(1)利用預訓練好的YOLO模型實現目標檢測(圖像檢測、視頻檢測、攝像頭實時檢測)
(2)數據標注演示(LabelImage使用方法介紹)
(3)訓練自己的目標檢測數據集
第十三章、自編碼器
1、什么是自編碼器(Auto-Encoder, AE)?
2、經典的幾種自編碼器模型原理介紹(AE、Denoising AE, Masked AE)
3、案例:
(1)基于自編碼器的噪聲去除
(2)基于自編碼器的手寫數字特征提取與重構
(3)基于掩碼自編碼器的缺失圖像重構
原文鏈接:
https://mp.weixin.qq.com/s?__biz=MzUyNzczMTI4Mg==&mid=2247680679&idx=4&sn=41ac52c3469e5745216069f04b0b036f&chksm=fa775d9acd00d48cd1f91e69b1d140032c154f69ff253d26cca885c62fadf8a7cd6dc863b4aa&token=936512705&lang=zh_CN#rd