【人工智能】深度學習:神經網絡模型

【人工智能】深度學習:神經網絡模型

神經網絡基礎知識

BP神經網絡的概念

單個神經元的結構

CNN模型匯總

LeNet5 模型

AlexNet 模型

VGG模型

Inception Net(GoogleNet)模型

ResNet (殘差網絡)

RNN模型(循環神經網絡)

為什么需要RNN

RNN結構

LSTM(長短期記憶網絡)模型

LSTM結構

GRU模型

GRU結構

計算重置門rtr_trt?和候選狀態h~t\tilde{h}_th~t?

計算更新門ztz_tzt?和當前狀態hth_tht?


🎈邊走、邊悟🎈遲早會好

神經網絡基礎知識

神經網絡(Neural Network)是一種模擬人腦神經元連接方式的計算模型。其基本組成部分是神經元(Neurons),通過加權連接和激活函數構成復雜的網絡結構。神經網絡廣泛應用于模式識別、分類和回歸等領域。

BP神經網絡的概念

BP神經網絡(Backpropagation Neural Network)是多層前饋神經網絡的訓練算法,通過誤差反向傳播調整網絡權重以最小化輸出誤差。它主要包括以下步驟:

  1. 前向傳播:輸入數據通過網絡傳播,生成預測輸出。
  2. 計算誤差:預測輸出與真實輸出之間的差異。
  3. 反向傳播:誤差反向傳播,通過梯度下降法調整網絡權重。

單個神經元的結構

單個神經元的基本結構包括:

  • 輸入(Input):接收多個輸入信號。
  • 權重(Weights):每個輸入信號乘以對應的權重。
  • 加權和(Weighted Sum):所有加權輸入信號的和。
  • 激活函數(Activation Function):將加權和映射到輸出信號。常用的激活函數包括Sigmoid、ReLU、Tanh等。

公式表示為: y=f(∑i=1nwixi+b)y = f\left( \sum_{i=1}^{n} w_i x_i + b \right)y=f(∑i=1n?wi?xi?+b) 其中,fff是激活函數,wiw_iwi?是權重,xix_ixi?是輸入,bbb是偏置項。

CNN模型匯總

卷積神經網絡(CNN)是一種專門處理圖像數據的神經網絡,具有卷積層、池化層和全連接層等結構。常見的CNN模型有LeNet5、AlexNet、VGG、Inception Net(GoogleNet)和ResNet。

LeNet5 模型

LeNet5是最早的卷積神經網絡之一,由Yann LeCun等人在1998年提出,用于手寫數字識別。其結構包括:

  • 輸入層:28x28的灰度圖像
  • 卷積層C1:6個5x5的卷積核,輸出6個24x24的特征圖
  • 池化層S2:平均池化層,輸出6個12x12的特征圖
  • 卷積層C3:16個5x5的卷積核,輸出16個8x8的特征圖
  • 池化層S4:平均池化層,輸出16個4x4的特征圖
  • 卷積層C5:120個5x5的卷積核,輸出120個1x1的特征圖
  • 全連接層F6:84個神經元
  • 輸出層:10個神經元(對應10個類別)

AlexNet 模型

AlexNet由Alex Krizhevsky等人在2012年提出,標志著深度學習在圖像識別領域的突破。其結構包括:

  • 卷積層1:96個11x11的卷積核,步長為4,輸出96個55x55的特征圖
  • 池化層1:最大池化層,輸出96個27x27的特征圖
  • 卷積層2:256個5x5的卷積核,步長為1,輸出256個27x27的特征圖
  • 池化層2:最大池化層,輸出256個13x13的特征圖
  • 卷積層3:384個3x3的卷積核,步長為1,輸出384個13x13的特征圖
  • 卷積層4:384個3x3的卷積核,步長為1,輸出384個13x13的特征圖
  • 卷積層5:256個3x3的卷積核,步長為1,輸出256個13x13的特征圖
  • 池化層5:最大池化層,輸出256個6x6的特征圖
  • 全連接層:4096個神經元
  • 輸出層:1000個神經元(對應1000個類別)

VGG模型

VGGNet由Simonyan和Zisserman在2014年提出,其特點是使用非常小的卷積核(3x3)和較深的網絡結構。常見的VGG模型包括VGG16和VGG19,分別包含16和19個卷積層和全連接層。其結構包括:

  • 卷積層1-2:64個3x3的卷積核,步長為1,輸出64個224x224的特征圖
  • 池化層1:最大池化層,輸出64個112x112的特征圖
  • 卷積層3-4:128個3x3的卷積核,步長為1,輸出128個112x112的特征圖
  • 池化層2:最大池化層,輸出128個56x56的特征圖
  • 卷積層5-7:256個3x3的卷積核,步長為1,輸出256個56x56的特征圖
  • 池化層3:最大池化層,輸出256個28x28的特征圖
  • 卷積層8-12:512個3x3的卷積核,步長為1,輸出512個28x28的特征圖
  • 池化層4:最大池化層,輸出512個14x14的特征圖
  • 卷積層13-17:512個3x3的卷積核,步長為1,輸出512個14x14的特征圖
  • 池化層5:最大池化層,輸出512個7x7的特征圖
  • 全連接層:4096個神經元
  • 輸出層:1000個神經元(對應1000個類別)

Inception Net(GoogleNet)模型

Inception Net由Google提出,主要特點是Inception模塊,能夠在同一層上并行進行不同尺寸卷積和池化操作。其結構包括:

  • 卷積層1:64個7x7的卷積核,步長為2,輸出64個112x112的特征圖
  • 池化層1:最大池化層,輸出64個56x56的特征圖
  • 卷積層2:192個3x3的卷積核,步長為1,輸出192個56x56的特征圖
  • 池化層2:最大池化層,輸出192個28x28的特征圖
  • Inception模塊:多個Inception模塊組合,不同尺寸的卷積核和池化層并行
  • 全連接層:輔助分類器和主分類器
  • 輸出層:1000個神經元(對應1000個類別)

ResNet (殘差網絡)

ResNet由微軟研究院提出,主要特點是引入殘差連接,解決深度網絡中的梯度消失和退化問題。其結構包括:

  • 卷積層1:64個7x7的卷積核,步長為2,輸出64個112x112的特征圖
  • 池化層1:最大池化層,輸出64個56x56的特征圖
  • 殘差模塊:多個殘差模塊,每個模塊包含多個卷積層和一個直接的殘差連接
  • 全連接層:1000個神經元
  • 輸出層:1000個神經元(對應1000個類別)

RNN模型(循環神經網絡)

RNN是一種用于處理序列數據的神經網絡,其特點是具有循環連接,能夠保留序列信息。RNN在時間序列預測、自然語言處理等領域有廣泛應用。

為什么需要RNN

傳統神經網絡在處理序列數據時無法保留之前的信息,而RNN通過循環連接,能夠保留并利用序列中的上下文信息,使得其在處理時間序列數據時更為有效。

RNN結構

RNN的基本結構包括:

  • 輸入層:接收序列數據的每個時間步
  • 隱藏層:通過循環連接保留前一個時間步的信息
  • 輸出層:輸出每個時間步的結果

公式表示為: ht=f(Wihxt+Whhht?1+bh)h_t = f(W_{ih}x_t + W_{hh}h_{t-1} + b_h)ht?=f(Wih?xt?+Whh?ht?1?+bh?) yt=g(Whoht+bo)y_t = g(W_{ho}h_t + b_o)yt?=g(Who?ht?+bo?) 其中,fff是隱藏層的激活函數,ggg是輸出層的激活函數,WWW和bbb分別是權重和偏置項。

LSTM(長短期記憶網絡)模型

LSTM是一種改進的RNN,能夠有效解決長期依賴問題。其通過引入記憶單元和門控機制,控制信息的保留和遺忘。

LSTM結構

LSTM的基本結構包括:

  • 遺忘門(Forget Gate):決定是否丟棄上一時間步的記憶
  • 輸入門(Input Gate):決定是否接受當前時間步的輸入
  • 記憶單元(Memory Cell):保留重要信息
  • 輸出門(Output Gate):決定輸出哪些信息

公式表示為: ft=σ(Wf?[ht?1,xt]+bf)f_t = \sigma(W_f \cdot [h_{t-1}, x_t] + b_f)ft?=σ(Wf??[ht?1?,xt?]+bf?) it=σ(Wi?[ht?1,xt]+bi)i_t = \sigma(W_i \cdot [h_{t-1}, x_t] + b_i)it?=σ(Wi??[ht?1?,xt?]+bi?) C~t=tanh?(WC?[ht?1,xt]+bC)\tilde{C}_t = \tanh(W_C \cdot [h_{t-1}, x_t] + b_C)C~t?=tanh(WC??[ht?1?,xt?]+bC?) Ct=ft?Ct?1+it?C~tC_t = f_t \cdot C_{t-1} + i_t \cdot \tilde{C}_tCt?=ft??Ct?1?+it??C~t? ot=σ(Wo?[ht?1,xt]+bo)o_t = \sigma(W_o \cdot [h_{t-1}, x_t] + b_o)ot?=σ(Wo??[ht?1?,xt?]+bo?) ht=ot?tanh?(Ct)h_t = o_t \cdot \tanh(C_t)ht?=ot??tanh(Ct?)

GRU模型

GRU(Gated Recurrent Unit)是一種簡化的LSTM模型,減少了計算復雜度,保留了LSTM的長短期記憶能力。

GRU結構

GRU的基本結構包括:

  • 重置門(Reset Gate):控制如何合并新輸入和前一個時間步的記憶
  • 更新門(Update Gate):控制如何更新當前時間步的狀態

公式表示為: rt=σ(Wr?[ht?1,xt]+br)r_t = \sigma(W_r \cdot [h_{t-1}, x_t] + b_r)rt?=σ(Wr??[ht?1?,xt?]+br?) zt=σ(Wz?[ht?1,xt]+bz)z_t = \sigma(W_z \cdot [h_{t-1}, x_t] + b_z)zt?=σ(Wz??[ht?1?,xt?]+bz?) h~t=tanh?(Wh?[rt?ht?1,xt]+bh)\tilde{h}_t = \tanh(W_h \cdot [r_t \cdot h_{t-1}, x_t] + b_h)h~t?=tanh(Wh??[rt??ht?1?,xt?]+bh?) ht=(1?zt)?ht?1+zt?h~th_t = (1 - z_t) \cdot h_{t-1} + z_t \cdot \tilde{h}_tht?=(1?zt?)?ht?1?+zt??h~t?

計算重置門rtr_trt?和候選狀態h~t\tilde{h}_th~t?

重置門rtr_trt?控制前一個時間步的隱藏狀態如何影響當前時間步的候選狀態: rt=σ(Wr?[ht?1,xt]+br)r_t = \sigma(W_r \cdot [h_{t-1}, x_t] + b_r)rt?=σ(Wr??[ht?1?,xt?]+br?) 候選狀態h~t\tilde{h}_th~t?是當前時間步的潛在新信息: h~t=tanh?(Wh?[rt?ht?1,xt]+bh)\tilde{h}_t = \tanh(W_h \cdot [r_t \cdot h_{t-1}, x_t] + b_h)h~t?=tanh(Wh??[rt??ht?1?,xt?]+bh?)

計算更新門ztz_tzt?和當前狀態hth_tht?

更新門ztz_tzt?決定當前時間步的隱藏狀態如何更新: zt=σ(Wz?[ht?1,xt]+bz)z_t = \sigma(W_z \cdot [h_{t-1}, x_t] + b_z)zt?=σ(Wz??[ht?1?,xt?]+bz?) 當前時間步的隱藏狀態hth_tht?通過前一個隱藏狀態和當前候選狀態的加權和計算: ht=(1?zt)?ht?1+zt?h~th_t = (1 - z_t) \cdot h_{t-1} + z_t \cdot \tilde{h}_tht?=(1?zt?)?ht?1?+zt??h~t?

這些模型和概念構成了神經網絡在圖像識別、自然語言處理等領域的基礎和核心技術。

?🌟感謝支持?聽憶.-CSDN博客

🎈眾口難調🎈從心就好

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/43685.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/43685.shtml
英文地址,請注明出處:http://en.pswp.cn/web/43685.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

css實現漸進中嵌套漸進的方法

這是我們想要的實現效果: 思路: 1.有一個底色的背景漸變 2.需要幾個小的塊級元素做絕對定位通過漸變filter模糊來實現 注意:這里的采用的定位方法,所以在內部的元素一律要使用絕對定位,否則會出現層級的問題&…

小白攻克歌曲“無名的人”,逐句精研的歌唱訣竅

《無名的人》 作詞:唐恬 作曲:錢雷 演唱:毛不易 今天不講解練習技巧,有需要的可以查看往期文章,我給大家帶一下無名的人,練習一下情感融入。 對于眾多唱歌小白而言,學習歌曲《無名的人》是一…

ctfshow-web入門-文件上傳(web164、web165)圖片二次渲染繞過

web164 和 web165 的利用點都是二次渲染,一個是 png,一個是 jpg 目錄 1、web164 2、web165 二次渲染: 網站服務器會對上傳的圖片進行二次處理,對文件內容進行替換更新,根據原有圖片生成一個新的圖片,這樣…

【Linux】進程優先級 + 環境變量

前言 在了解進程狀態之后,本章我們將來學習一下進程優先級,還有環境變量等。。 目錄 1.進程優先級1.1 為什么要有優先級? 2.進程的其他概念2.1 競爭性與獨立性2.2 并行與并發2.3 進程間優先級的體現:2.3.1 O(1) 調度算法&#xf…

Apache Web安全分析與增強

Apache HTTP Server 概述 Apache HTTP Server(通常簡稱為Apache)是一個開源的Web服務器軟件,由Apache軟件基金會開發和維護。它是全球使用最廣泛的Web服務器之一,支持多種操作系統,包括Unix、Linux、Windows和Mac OS X。以下是Apache Web服務器的詳細概述,包括其功能特點…

數字高壓表0-30kv

最近在制作數字高壓表,自己DIY玩玩,有沒有朋友一起研究看看

SpringCloud--常用組件和服務中心

常用組件 Euroke和nacos 區別 負載均衡 負載均衡策略有哪些 自定義負載均衡策略

【Red Hat 4.6---詳細安裝Oracle 19c】---靜默方式安裝

🔻 一、安裝前規劃 規劃項:(本環境) 描述:操作系統版本Red Hat Enterprise Linux Server release 4.6 (Santiago)主機名langtest數據庫版本 Oracle 19c IP規劃10.10.10.164服務器空間要求根據實際要求數據庫名/實例名orcl數據庫塊大小oracle建庫一般設置數據庫塊大…

物業系統自主研發接口測試框架

1、自主研發框架整體設計 1.1、什么是測試框架? 在了解什么是自動化測試框架之前,先了解一下什么叫框架?框架是整個或部分系統的可重用設計,表現為一組抽象構件及構件實例間交互的方法;另一種定義認為,框架是可被應用開發者定制的應用骨架…

Redis 主從復制,集群與高可用

雖然Redis可以實現單機的數據持久化,但無論是RDB也好或者AOF也好,都解決不了單點宕機問題,即一旦單臺 redis服務器本身出現系統故障、硬件故障等問題后,就會直接造成數據的丟失 此外,單機的性能也是有極限的,因此需要使用另外的技…

捷配生產筆記-細間距芯片的表面處理工藝:OSP與沉金工藝的重要性

在現代電子制造領域,隨著技術的進步,電子設備變得越來越小型化和高性能化。細間距芯片作為實現這一目標的關鍵組件,其制造工藝要求極為嚴格。在這些要求中,表面處理工藝尤為關鍵,因為它直接影響到芯片的焊接質量和長期…

江蘇云服務器適用于哪些場景?

云服務器主要是指一中基于云計算技術的虛擬化服務器,用戶能夠通過互聯網網絡進行遠程訪問和管理,與傳統的物理服務器相比較,云服務器更具有可擴展性與靈活性,所以云服務器受到越來越多的企業所使用,同時在各個領域中都…

實驗7 數據查詢(2)

一、實驗目的 學習SQL語言的定義、操縱功能熟悉通過SQL語言對數據庫進行查詢操作,包括單表查詢、多表查詢、嵌套查詢、集合查詢 二、實驗軟件 MySQL三、實驗內容和要求 給定四個關聯表,其定義和數據加載如下: 學生表 Student create tab…

Cesium中實現圖層組

圖層組 某天領導找我,說業務中可能存在多個影像服務為一個圖層組,并且需要同時加載和同時在圖層列表中上下移動的需求。 例如一些專題地圖,包含所有學校、醫院、公交站等圖層,而這些圖層都是單獨發布的。 在 Cesium 中確實存在…

前端與嵌入式開發通信之QWebChannel(Qt)

前端與嵌入式開發通信之QWebChannel 最近開發中需要用到和c開發的操作臺進行通信的的需求,就找到了這個技術,記錄一下 首先需要安裝導入 qwebchannel npm i qwebchannel import { QWebChannel } from "qwebchannel"; 初始化qwebchannel并封…

myeclipse開發ssm框架項目圖書管理系統 mysql數據庫web計算機畢業設計項目

摘 要 隨著計算機的廣泛應用,其逐步成為現代化的標志。圖書館的信息量也會越來越大,因此需要對圖書信息、借書信息、還書信息等進行管理,及時了解各個環節中信息的變更,要對因此而產生的單據進行及時的處理,為了提高高…

vue3 兩個組件之間傳值

Props 父組件可以通過 props 將數據傳遞給子組件。這是最常見的組件間通信方式 <!-- 父組件 --><template><ChildComponent :message"parentMessage" /></template><script>import ChildComponent from ./ChildComponent.vue;export…

Linux-shell編程入門基礎

文章目錄 前言Shell編程bash特性shell作用域變量環境變量$特殊變量$特殊狀態變量 $特殊符號(很重要)其他內置shell命令shell語法的子串截取統計 指令執行時間練習shell特殊擴展變量父子shell的理解內置和外置命令區別 數值計算雙括號(())運算letexprexpr模式匹配 bcawk中括號 s…

MySQL InnoDB事務隔離的幾種級別

MySQL InnoDB是一種支持事務的存儲引擎&#xff0c;提供了多種事務隔離級別&#xff0c;分別是&#xff1a;讀未提交&#xff08;READ UNCOMMITTED&#xff09;&#xff0c;讀已提交&#xff08;READ COMMITTED&#xff09;&#xff0c;可重復讀&#xff08;REPEATABLE READ&am…

數據結構(Java):Stack相關OJ習題

1、括號匹配問題 . - 力扣&#xff08;LeetCode&#xff09; 1.1 思路分析 根據棧的先進后出原則&#xff0c;我們可以這樣解決問題&#xff1a; 遍歷字符串&#xff0c;遇見左括號就將左括號push入棧&#xff1b;遇見右括號就pop出棧&#xff0c;將出棧的元素和該右括號比較…