【通識】深度學習理論基礎

1. 深度學習導論

導論和簡介的基礎知識和路徑。
在這里插入圖片描述
深度學習的各項涵蓋范圍:深度學習MLPs,然后是機器學習、邏輯回歸,知識基礎等等
在這里插入圖片描述
1)連結+神經網絡等等:Cybernetics控制論,Connectionism連結主義,Neural Networks神經網絡等
其中,控制論是研究動態系統如何通過反饋機制實現自我調節和控制的跨學科領域,核心關注信息、控制和通信在生物、機器和社會系統中的流動。
Connectionism(聯結主義)是一種基于神經網絡模擬智能的理論框架,認為認知功能源于簡單單元(神經元)之間的連接權重調整。關鍵思想分布式表征、學習即權重調整、受生物啟發。
與Cybernetics的關系。控制論提供系統層面的框架(如反饋),聯結主義是其具體實現之一。
兩者都關注適應性,但聯結主義更側重可學習的網絡結構。
神經網絡:神經網絡是聯結主義的具體計算模型,由多層互聯的“神經元”組成,通過數學運算模擬信息處理。
關鍵特點
層級結構:輸入層、隱藏層、輸出層
激活函數:決定神經元是否激活(如ReLU、Sigmoid)
訓練算法:如反向傳播(Backpropagation)
在這里插入圖片描述

1.1 數學基礎

  1. 線性代數
    1) L p L_p Lp?距離( L p d i s t a n c e L_p distance Lp?distance對于兩個向量 x = ( x 1 , . . . , x n ) x=(x_1, ...,x_n) x=(x1?,...,xn?) y = ( ) y=() y=()
    L_p距離衡量的是兩個點在n維空間中的“距離”,不同的 p 值對應不同的距離衡量方式。
    L p ( x i , x j ) = ∥ m n ∥ p = ( ∑ i = 1 n ∣ x i ( l ) ? x j ( i ) ∣ p ) 1 / p L_p(x_i, x_j)=\begin{Vmatrix} m & n\end{Vmatrix}_p=(\sum^n_{i=1}|x^{(l)}_i-x^{(i)}_j|^p)^{1/p} Lp?(xi?,xj?)=?m?n??p?=(i=1n?xi(l)??xj(i)?p)1/p$
    其中, x i ∈ R n x_i\in\mathbb{R^n} xi?Rn x j ∈ R n x_j\in\mathbb{R^n} xj?Rn,其中 L ∞ L_\infty L?定義為: L ∞ ( x i , x j ) = m a x l ∣ x i ( l ) ? x j ( l ) ∣ L\infty(x_i, x_j)=max_l|x^{(l)}_i-x^{(l)}_j| L(xi?,xj?)=maxl?xi(l)??xj(l)?
    2) L 1 L_1 L1?范數(Manhattan Distance / 曼哈頓距離)
    特點:計算的是各維度差值絕對值的和。
    幾何意義:在網格狀道路(如曼哈頓街區)中,從A點到B點需要走過的實際路徑長度(只能橫平豎直走)
    當p=1時,L_p距離變為 L_1范數(也叫曼哈頓距離)
    ∥ m n ∥ 1 = \begin{Vmatrix} m & n\end{Vmatrix}_1 = ?m?n??1?=
    應用場景:
    a. 魯棒性要求高的場景:數據中存在異常值(離群值)
    3) L 2 L_2 L2?范數
    特點 L 2 d e f i n e s a s s u m i n ( x i ) 2 L_2\, defines \, as \sqrt {sum^n_i(x_i)^2} L2?definesassumin?(xi?)2 ?,其中 x = [ x 1 , x 2 . . . , x n ] T , x ∈ R x=[x_1,x_2...,x_n]^T, x\in\mathbb{R} x=[x1?,x2?...,xn?]T,xR
    幾何意義
    在這里插入圖片描述
    4)PCA(Principal component analysis;主成分分析技術)
    數據降維方式,將n維數據降低到指定的K維。數據降維有以下優點:
    假設在 R n \mathbb{R}^n Rn中有 m m m個點{ x ( 1 ) , . . . , x ( n ) x^{(1)}, ..., x^{(n)} x(1),...,x(n)},希望對點進行有損壓縮-使用更少的內存但損失精度去存儲這些點。
    在這里插入圖片描述
    編碼這些點的方式是用低維表示,則對于每個點 x ( i ) ∈ R l x^{(i)}\in\mathbb{R^l} x(i)Rl,若 l l l n n n小,則使用了更少的內存來存儲原來的數據。希望找到一個編碼函數,根據輸入返回編碼, f ( x ) = c f(x)=c f(x)=c;也希望找到解碼函數,給定編碼重構輸入, x ≈ g ( f ( x ) ) x≈g(f(x)) xg(f(x))
    PCA由選擇的解碼函數而定,為了簡化解碼器,使用矩陣乘法映射回 R n \mathbb{R}^n Rn,即 g ( c ) = D c g(c)=Dc g(c)=Dc,其中 D ∈ R n x 1 D\in\mathbb{R}^{nx1} DRnx1是定義解碼的矩陣。
    5)特征分解(eigendecomposition)是使用最廣的矩陣分解之一,即將矩陣分解成一組特征向量和特征值
    方陣A的特征向量(eigenvector)是值與A相乘后對該向量進行壓縮的非零向量 v v v A v = λ v Av=\lambda v Av=λv
    標量 λ \lambda λ被成為這個特征向量的特征值(evgenvalue,類似定義左特征向量(left eigenvector),有 v T A = λ v T v^{T}A=\lambda v^{T} vTA=λvT
    v v v A A A的特征向量,那么縮放后的向量 s v ( s ∈ R , s ) sv(s\in\mathbb{R},s) sv(sR,s)
  2. 概率論和信息理論基礎
    1)概率論是用于表示不確定性聲明的數學框架,不僅提供了量化不確定性的方法,也提供了用于導出新的不確定聲明(statement)的公理
    2)聯合概率:包含多個條件且所有條件同時成立的概率,記作$P{X=a}$
    3)基礎概率論知識:
    KaTeX parse error: Expected 'EOF', got '}' at position 18: …x;\mu, \sigma^2}? = \sqrt1/()
    4)
  3. 機器學習基礎
  4. 數據計算

1.2 深度學習基礎

分類基礎:包括分類(決策樹Decision Tree,K近鄰)、集群、回歸(邏輯回歸logistic Regression、SVM)、降維
1)決策樹
2)K近鄰
T = ( x 1 , y 1 ) , ( x 2 , y 2 ) , . . . , ( x N , y N ) T = {(x_1, y_1),(x_2, y_2), ..., (x_N, y_N)} T=(x1?,y1?),(x2?,y2?),...,(xN?,yN?)
其中, x i x_i xi?
3)
在這里插入圖片描述

  1. 深度前饋神經網絡
    在這里插入圖片描述其中,常用的激活函數有 Sigmoid函數、雙曲正切激活函數(tanh)、修正線性單元(ReLU)等。
    梯度消失指在神經網絡反向傳播過程中梯度值逐漸減小趨近于零,導致靠近輸入層的參數更新緩慢或停滯;梯度爆炸則指梯度值迅速增大呈指數級增長,導致參數更新劇烈震蕩甚至訓練失敗。
    1)Sigmoid函數
    單調增函數: Sigmoid函數是單調增函數,輸出范圍在[0,1]之間,且越是負向增大,越接近于0
    Sigmoid函數會造成梯度消失問題,從圖像中我們也可以得知,當輸入特別大或是特別小時,神經元的梯度幾乎接近于0,這就導致神經網絡不收斂
    由于輸出不以0為均值,導致轉入下一層的輸入非0。導致了若 Sigmoid函數的輸出全部為正數,那么傳入下一層神經網絡的值永遠大于0,這時參數無論怎么更新梯度都為正。正是基于上述的缺點, Sigmoid函數近年來的使用頻率也在漸漸減弱。
    2)Tanh函數又名雙曲正切激活函數
    是 Sigmoid函數的變形,其數學表達式為: t a n h ( x ) = s i n h ( x ) / c o s h ( x ) = ( e x ? e ( ? x ) ) / ( e x + e ( ? x ) ) tanh(x)=sinh(x)/cosh(x)=(e^x-e^(-x))/(e^x+e^(-x)) tanh(x)=sinh(x)/cosh(x)=(ex?e(?x))/(ex+e(?x)),函數圖像如圖3-9所示:
    在這里插入圖片描述
    3)修正線性單元ReLU
    ReLU激活函數又名修正線性單元,是目前深層神經網絡中越來越受歡迎的一種激活函數,其數學表達式為:f(x) = max(0,x),函數圖像如下圖所示
    在這里插入圖片描述
    相比于上述的 Sigmoid和tanh兩種激活函數,ReLU激活函數完美的解決了梯度消失的問題,因為它的線性的、非飽和的
    但是ReLU激活函數也有一些缺陷:訓練的時候不適合大梯度的輸入數據,因為在參數更新之后,ReLU的神經元不會再任何數據節點被激活,這就會導致梯度永遠為0。比如:輸入的數據小于0時,梯度就會為0,這就導致了負的梯度被置0,而且今后也可能不會被任何數據所激活,也就是說ReLU的神經元“壞死”了。
    所以針對ReLU函數上述的缺點,又出現了帶泄露的ReLU(Leaky ReLU)和帶參數的ReLU(Parametric ReLU)
    Leaky ReLU是ReLU激活函數的變形,主要是針對ReLU函數中神經元容易壞死的缺陷,將原點左側小于0的部分,賦予一個很小的斜率。其效果通常要好于ReLU激活函數,但實踐中使用的頻率并沒有那么高。數據公式為:f(x) = max(0, x) + γmin(0, x)。通常,γ是一個很小的常數,如:0.01。
    4)其他激活函數: Leaky ReLU是ReLU激活函數的變形,主要是針對ReLU函數中神經元容易壞死的缺陷,將原點左側小于0的部分,賦予一個很小的斜率。其效果通常要好于ReLU激活函數,但實踐中使用的頻率并沒有那么高。數據公式為:f(x) = max(0, x) + γmin(0, x)。通常,γ是一個很小的常數,如:0.01
    在這里插入圖片描述
  2. 正則化
    1)神經網絡的正則化是通過在模型訓練過程中添加約束或懲罰項來防止過擬合,提高模型泛化能力的技術
    2)
  3. 優化
  4. CNN
  5. RNN
  6. 粒子算法
  7. 應用相關

1.3 深度學習研究

  1. 線性工廠模型Linear Factor Models
  2. 自動代碼AutoCodes

參考文獻:
[1] 深度學習“花書”啃書指導視頻!
[2]一文帶你讀懂激活函數

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/87901.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/87901.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/87901.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

sql-labs(11-12)-萬能密碼登錄

sql-labs(11-12)萬能密碼登錄 第十一關: 這關是一個登陸口,也是一個sql注入的漏洞,也就是常說的萬能密碼。 在輸入框賬號密碼種分別輸入 1’ 和1’ 頁面會報錯。后臺使用的單引符號進行的拼接。賬號輸入1’ or ‘1’‘1 密碼輸入 1’ or …

MsSql 其他(2)

???????????????Mysql中的MVCC 一、MVCC 的核心目標與設計背景 MVCC(Multi-Version Concurrency Control,多版本并發控制) 是 InnoDB 存儲引擎為實現高并發事務處理而設計的核心機制。其核心目標是:在不犧牲事務隔…

解決本地部署n8n,域名訪問為什么一直有connection lost的報錯

問題:本地部署的n8n服務用IP訪問一切都正常,但是使用域名后報錯connection lost思路:首先懷疑是ngnix配置問題或者是docker中的環境問題查看docker logsOrigin header does NOT match the expected origin. (Origin: "nxxx.online:1181&…

傳統架構開發VS PREEvision:一場效率與可靠性的降維打擊

當前,整車功能數量激增,意味著需要更龐大的整車數據庫、更復雜的硬件傳感器與執行器網絡、更密集的跨系統交互接口以及更難以預測的耦合效應。這樣一來,單一功能的微小改動,可能會因復雜的依賴關系而引發意想不到的連鎖反應&#…

深度學習基礎1

一、張量 張量其實就是數組,不過是在深度學習中是這樣的叫法 1.張量的創建 (1)基本創建方式 torch.tensor():根據指定數據創建張量 import torch import numpy as np """創建張量標量""" data to…

力扣網編程274題:H指數之普通解法(中等)

一. 簡介 本文記錄力扣網上涉及數組,排序方面的編程題:H指數。 二. 力扣網編程274題:H指數(中等) 給你一個整數數組 citations ,其中 citations[i] 表示研究者的第 i 篇論文被引用的次數。計算并返回該研…

iptables防火墻,多IP環境下, 指定某個目的IP地址通過某個本地IP訪問,策略路由!

需求在CentOS 7.9中,若需從特定源IP(10.0.0.3)訪問目標網段 1.1.1.0/24方法一:策略路由(支持網段)1. 創建自定義路由表# 添加名為custom_table的路由表(ID200) echo "200 custo…

數字孿生技術引領UI前端設計新趨勢:數據可視化與交互設計的深度融合

hello寶子們...我們是艾斯視覺擅長ui設計、前端開發、數字孿生、大數據、三維建模、三維動畫10年經驗!希望我的分享能幫助到您!如需幫助可以評論關注私信我們一起探討!致敬感謝感恩!一、引言:數字孿生驅動 UI 設計的范式革新在大數據與三維可視化技術爆發的今天&…

【機器學習筆記 Ⅱ】6 激活函數

激活函數是神經網絡的核心組件,其作用遠不止“引入非線性”。以下是系統化的解析:1. 核心作用 (1) 引入非線性沒有激活函數:多層神經網絡等價于單層線性變換(矩陣連乘仍是線性)。加入激活函數:每層通過非線…

AI無標記動捕如何結合VR大空間技術打造沉浸式游戲體驗

隨著數字科技的迅猛發展,VR大空間技術正逐步成為各行業探索沉浸式體驗的重要方向。在VR游戲領域,市場對于高度沉浸式體驗的需求日益增長,而傳統VR游戲主要依賴手柄和基礎體感進行交互,而在VR大空間中,用戶可以通過全身…

Qt智能指針

在 Qt 框架中,智能指針用于自動管理對象的生命周期,防止內存泄漏。以下是 Qt 中主要的智能指針及其用法詳解:1. QScopedPointer作用:獨占所有權,超出作用域時自動釋放對象(類似 std::unique_ptr&#xff09…

408第三季part2 - 計算機網絡 - 信道利用率

理解t1是發送幀的傳輸時間t2是確認幀的傳輸時間中間是傳播過程這整個過程就是發送周期任何題目會有以下幾種情況題目這里數據幀和確認幀長度是一樣的t1 t2然后把t1的傳輸數據算出來然后傳播是0.2sd停止等待 k1確認幀忽略t2 0t1算好后,求數據幀的長度下面是速率&…

Android framework 開發者模式下,如何修改動畫過度模式

Android framework 開發者模式下, 如何修改動畫過度模式 開發者模式下,動畫過度 模式1.0→0.5,按如下方式修改。 開發云 - 一站式云服務平臺 .../core/java/com/android/server/wm/WindowManagerService.java | 8 ---- 1 file changed, …

win11安裝paddlelabel并創建目標檢測項目

創建虛擬環境 conda create -n paddlelabel python3.11.11 conda activate paddlelabel通過以下命令安裝 pip install --upgrade paddlelabel輸入命令pdlabel運行paddlelabel,發現報錯: ModuleNotFoundError: Please install connexion using the flask …

關于Novatek B/G-R/G白平衡色溫坐標系再探究

目錄 一、準備知識 二、色溫坐標系的構建 三、Novatek白平衡色溫坐標系的再探究 2.1 直線白點框 2.2雙曲線白點框 四、仿真代碼 之前寫的一篇博文關于聯詠(Novatek )白平衡色溫坐標系探究-CSDN博客感覺邏輯上有些混亂,這個周末我又好好思考了下,以…

基于路徑質量的AI負載均衡異常路徑檢測與恢復策略

AI流量往往具有突發性、大象流(大規模數據流)占比高的特點,極易造成網絡擁塞熱點。一條質量不佳(如高延遲、高丟包、帶寬受限)的路徑,不僅自身無法有效傳輸數據,如果ECMP繼續向其分發流量&#…

ubuntu22.04 安裝cuda cudnn

1.輸入nvidia-smi查看可以支持安裝的cuda最大版本 2.cuda與cudnn版本的選擇 核心原則 向下兼容性:較新的 cuDNN 通常兼容舊版 CUDA,但反之不成立 框架依賴:優先考慮深度學習框架(TensorFlow/PyTorch)的版本要求 硬件…

5、Receiving Messages:Message Listener Containers

提供了兩個MessageListenerContainer實現: KafkaMessageListenerContainer ConcurrentMessageListener容器 KafkaMessageListenerContainer在單個線程上接收來自所有主題或分區的所有消息。ConcurrentMessageListenerContainer委托給一個或多個KafkaMessageListe…

JDBC 注冊驅動的常用方法詳解

JDBC 注冊驅動的常用方法詳解 在 JDBC 中,注冊驅動是建立數據庫連接的第一步。以下是幾種常用的驅動注冊方式: 1. 顯式類加載(傳統方式) // 通過 Class.forName() 加載驅動類 Class.forName("com.mysql.cj.jdbc.Driver&qu…

插入數據優化

目錄 一.插入數據優化 1.insert語句優化 ①批量插入 ②手動提交事務 ③主鍵順序插入 2.大批量插入數據(100萬條) 舉例 第一步:連接數據庫時,加上--local-infile屬性 第二步:查看全局參數local_infile的值&…