深度學習 - 構建神經網絡

1. 自動求導機制

概念解釋

  • 自動求導:PyTorch的autograd模塊允許我們自動計算張量的梯度,這在反向傳播算法中尤為重要。反向傳播是神經網絡訓練的核心,用于計算每個參數的梯度并更新參數。

生活中的例子

想象你是一個廚師,正在調整一個菜譜,使它更加美味。每次你改變一個配料的量,比如鹽或糖,你都會嘗試這個菜,然后根據味道的變化決定是否需要進一步調整。這就像在神經網絡中計算梯度:你調整網絡的參數(配料),觀察輸出(菜的味道),然后根據輸出的變化來更新參數(調整配料)。

示例代碼

import torchx = torch.tensor([1.0, 2.0, 3.0], requires_grad=True)
y = x + 2
z = y * y * 3
out = z.mean()print("x:", x)
print("y:", y)
print("z:", z)
print("out:", out)

運行結果

x: tensor([1., 2., 3.], requires_grad=True)
y: tensor([3., 4., 5.], grad_fn=<AddBackward0>)
z: tensor([27., 48., 75.], grad_fn=<MulBackward0>)
out: tensor(50., grad_fn=<MeanBackward0>)

解釋

  • requires_grad=True:表示我們需要計算x的梯度。
  • y = x + 2:對每個元素加2。
  • z = y * y * 3:每個元素先平方,再乘以3。
  • out = z.mean():計算張量的平均值。

計算圖與梯度計算

out.backward()
print(x.grad)

運行結果

tensor([ 4.,  8., 12.])

解釋out相對于x的梯度是4*x + 4

梯度計算公式

  1. y = x + 2 y = x + 2 y=x+2
  2. z = 3 y 2 z = 3y^2 z=3y2
  3. o u t = 1 3 ∑ z out = \frac{1}{3} \sum z out=31?z

反向傳播:

  1. ? o u t ? z i = 1 3 \frac{\partial out}{\partial z_i} = \frac{1}{3} ?zi??out?=31?
  2. ? z i ? y i = 6 y i \frac{\partial z_i}{\partial y_i} = 6y_i ?yi??zi??=6yi?
  3. ? y i ? x i = 1 \frac{\partial y_i}{\partial x_i} = 1 ?xi??yi??=1

所以:

? o u t ? x i = 1 3 × 6 y i × 1 = 2 y i \frac{\partial out}{\partial x_i} = \frac{1}{3} \times 6y_i \times 1 = 2y_i ?xi??out?=31?×6yi?×1=2yi?

y i = x i + 2 y_i = x_i + 2 yi?=xi?+2,所以:

? o u t ? x i = 2 ( x i + 2 ) \frac{\partial out}{\partial x_i} = 2(x_i + 2) ?xi??out?=2(xi?+2)

x = [ 1 , 2 , 3 ] x = [1, 2, 3] x=[1,2,3] 時:

? o u t ? x = [ 4 , 8 , 12 ] \frac{\partial out}{\partial x} = [4, 8, 12] ?x?out?=[4,8,12]

torch.autograd.Variable

現在torch.Tensor已經取代了Variable,并且默認情況下所有張量都支持自動求導,所以Variable不再需要單獨使用。

2. 構建簡單神經網絡

概念解釋

  • 神經網絡:神經網絡是一種模仿人腦工作方式的計算模型。它由許多相互連接的“神經元”組成,每個神經元接收輸入信號并產生輸出信號。
  • nn.Module:是所有神經網絡模塊的基類。自定義的神經網絡類需要繼承nn.Module并實現其方法。

生活中的例子

想象你正在教一個機器人識別不同類型的水果。你給機器人看各種水果的圖片,并告訴它們每個水果的名稱。機器人通過觀察這些圖片并學習它們的特征(比如顏色、形狀),逐漸學會區分不同的水果。這就像神經網絡通過訓練數據學習模式。

示例代碼

import torch.nn as nn
import torch.nn.functional as Fclass Net(nn.Module):def __init__(self):super(Net, self).__init__()self.fc1 = nn.Linear(784, 256)self.fc2 = nn.Linear(256, 10)def forward(self, x):x = F.relu(self.fc1(x))x = self.fc2(x)return xnet = Net()
print(net)

運行結果

Net((fc1): Linear(in_features=784, out_features=256, bias=True)(fc2): Linear(in_features=256, out_features=10, bias=True)
)

解釋

  • __init__方法中定義了兩個全連接層(fc1fc2)。
  • forward方法定義了前向傳播的過程,首先通過第一層,然后應用ReLU激活函數,最后通過第二層。

前向傳播

input = torch.randn(1, 784)
output = net(input)
print(output)

運行結果

tensor([[ 0.0520,  0.2651,  0.0512, -0.1564, -0.2470, -0.2246,  0.0936, -0.2600,0.1607,  0.1467]], grad_fn=<AddmmBackward>)

解釋:生成一個隨機輸入張量input,通過網絡得到輸出output

損失函數和優化器

概念解釋

  • 損失函數:用來衡量模型輸出與實際目標之間的差異。
  • 優化器:通過反向傳播計算梯度并更新模型參數,以最小化損失函數。

生活中的例子

想象你在考試中答錯了一些題目,老師告訴你哪些題目答錯了,并給你一些建議。你根據這些建議修改你的學習方法,下次考試爭取做得更好。損失函數就像老師的反饋,優化器就像你調整學習方法的過程。

示例代碼

import torch.optim as optimcriterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)# 示例訓練步驟
optimizer.zero_grad()   # 清除梯度
output = net(input)     # 前向傳播
loss = criterion(output, torch.tensor([1]))  # 計算損失
loss.backward()         # 反向傳播
optimizer.step()        # 更新權重

解釋

  • criterion:定義損失函數,這里使用交叉熵損失函數。
  • optimizer:定義優化器,這里使用隨機梯度下降(SGD)。
  • optimizer.zero_grad():清除梯度。
  • output = net(input):前向傳播。
  • loss = criterion(output, torch.tensor([1])):計算損失。
  • loss.backward():反向傳播,計算梯度。
  • optimizer.step():更新權重。

3. 訓練流程

概念解釋

  • 數據加載與處理:使用torch.utils.data模塊加載和處理數據。

生活中的例子

想象你在準備一個大餐,需要從市場購買食材。你需要將所有食材分成不同的類別,并按照菜譜中的要求進行處理和烹飪。數據加載和處理就像你從市場獲取食材,并準備它們以便進一步使用。

示例代碼

from torch.utils.data import DataLoader, TensorDataset# 示例數據
inputs = torch.randn(100, 784)
targets = torch.randint(0, 10, (100,))dataset = TensorDataset(inputs, targets)
dataloader = DataLoader(dataset, batch_size=32, shuffle=True)

解釋

  • inputstargets:生成示例數據。
  • TensorDataset:將輸入和目標數據打包成數據集。
  • DataLoader:加載數據集,支持批處理和打亂數據。

定義模型、損失函數和優化器

net = Net()
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)

解釋:定義模型、損失函數和優化器。

訓練循環

for epoch in range(2):  # 訓練2個epochfor inputs, targets in dataloader:optimizer.zero_grad()   # 清除梯度outputs = net(inputs)   # 前向傳播loss = criterion(outputs, targets)  # 計算損失loss.backward()         # 反向傳播optimizer.step()        # 更新權重print(f"Epoch {epoch+1}, Loss: {loss.item()}")

**

運行結果**:

Epoch 1, Loss: 2.303864002227783
Epoch 2, Loss: 2.3021395206451416

解釋:訓練2個epoch,每個epoch中對每個批次數據進行前向傳播、計算損失、反向傳播和更新權重。

模型評估與驗證

概念解釋

  • 評估模式:在評估模式下,不計算梯度,節省內存和計算資源。

生活中的例子

想象你準備了一個大餐,現在邀請朋友來品嘗。他們給你反饋,你記錄這些反饋以便改進菜譜。這就像模型評估,你不再調整參數,而是觀察模型在新數據上的表現。

示例代碼

net.eval()  # 進入評估模式
with torch.no_grad():inputs = torch.randn(10, 784)outputs = net(inputs)predicted = torch.argmax(outputs, dim=1)print(predicted)

運行結果

tensor([1, 1, 1, 1, 1, 1, 1, 1, 1, 1])

解釋

  • net.eval():將模型設置為評估模式。
  • torch.no_grad():禁用梯度計算,節省內存和計算資源。
  • predicted:預測的類別。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/web/23085.shtml
繁體地址,請注明出處:http://hk.pswp.cn/web/23085.shtml
英文地址,請注明出處:http://en.pswp.cn/web/23085.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Java時間類(十六) -- 將一天的時間進行等步長分割

廢話不多說,直接上工具類: import java.time.LocalDate; import java.time.LocalDateTime; import java.time.LocalTime; import java.time.format.DateTimeFormatter; import java.util.ArrayList; import java.util.List;/*** @ClassName TimeSplitterUtil* @Description …

C語言指針與數組名的聯系

目錄 一、數組名的理解 a.數組名代表數組首元素的地址 b. 兩個例外 二、使用指針來訪問數組 三、一維數組傳參的本質 一、數組名的理解 a.數組名代表數組首元素的地址 我們在使用指針訪問數組的內容時&#xff0c;有這樣的代碼&#xff1a; int arr[10] {1,2,3,4,5,6,7,…

枚舉(enum)+聯合體(union)

枚舉聯合 一.枚舉類型1.枚舉類型的聲明2.枚舉類型的優點3.枚舉類型的使用 二.聯合體1.聯合體類型的聲明2.聯合體的特點3.相同成員的結構體和聯合體對比4.聯合體大小的計算5.聯合體的練習&#xff08;判斷大小端&#xff09;6.聯合體節省空間例題 一.枚舉類型 1.枚舉類型的聲明…

Sentinel1.8.6更改配置同步到nacos(項目是Gateway)

本次修改的源碼在&#xff1a;https://gitee.com/stonic-open-source/sentinel-parent 一 下載源碼 地址&#xff1a;https://github.com/alibaba/Sentinel/releases/tag/1.8.6 二 導入idea&#xff0c;等待maven下載好各種依賴 三 打開sentile-dashboard這個模塊&#xf…

介紹下CIDR(Classless Inter-Domain Routing)無類別域間路由

最近在搞DELL EMC XtremIO的重新初始化&#xff0c;在Stortage controller和XMS的xinstall配置的時候&#xff0c;需要配置用到CIDR&#xff0c;就是classless inter-domian routing&#xff0c;總結了一下&#xff0c;其實很多對網絡設備的地方都用得到&#xff0c;以前還不知…

華為手機錄屏在哪里?圖文詳解幫你找!

隨著科技的進步&#xff0c;智能手機已成為我們日常生活中不可或缺的工具。其中&#xff0c;華為手機憑借其卓越的性能和用戶體驗&#xff0c;在全球范圍內贏得了廣泛的贊譽。在眾多功能中&#xff0c;錄屏功能尤為實用&#xff0c;無論是制作教程、記錄游戲精彩瞬間&#xff0…

壓敏電阻器是在規定溫度下,當電壓超過某一臨界值時電導隨電壓的升高而急速增大的一種電阻器

壓敏電阻器是在規定溫度下,當電壓超過某一臨界值時電導隨電壓的升高而急速增大的一種電阻器。壓敏電阻器的伏安特性是非線性的,因此,壓敏電阻器亦稱為非線性電阻器,非線性來自于壓敏電阻器兩端的外加電壓,其伏安特性如圖 9-1所示。從圖9-1可以看出,壓敏電阻器有對稱型和非對稱型…

網絡運維簡介

目錄 1.網絡運維的定義 2.誕生背景 3.網絡運維的重要性 4.優點 5.缺點 6.應用場景 6.1.十個應用場景 6.2.數據中心運維 7.應用實例 8.小結 1.網絡運維的定義 網絡運維&#xff08;Network Operations&#xff09;是指管理、監控和維護計算機網絡以確保其高效、安全和…

2024最新華為OD算法題目

在一個機房中,服務器的位置標識在 n*m 的整數矩陣網格中,1表示單元格上有服務器,0 表示沒有。如果兩臺服務器位于同一行或者同一列中緊鄰的位置,則認為它們之間可以組成一個局域網。請你統計機房中最大的局域網包含的服務器個數。 輸入描述 第一行輸入兩個正整數,n和m,…

Python私教張大鵬 Vue3整合AntDesignVue之文本組件

案例&#xff1a;展示標題 核心代碼&#xff1a; <a-typography><a-typography-title>Introduction</a-typography-title> </a-typography>vue3示例&#xff1a; <template><a-typography><a-typography-title>這是一個標題</…

HTTP請求過程

HTTP&#xff08;超文本傳輸協議&#xff09;請求過程是客戶端&#xff08;通常是瀏覽器&#xff09;與服務器之間通信的方式&#xff0c;用于從服務器請求資源&#xff08;如網頁、圖片、視頻等&#xff09;。以下是HTTP請求的基本步驟&#xff1a; 建立TCP連接&#xff1a; 如…

【K8s】專題四(6):Kubernetes 控制器之 Job

以下內容均來自個人筆記并重新梳理&#xff0c;如有錯誤歡迎指正&#xff01;如果對您有幫助&#xff0c;煩請點贊、關注、轉發&#xff01;歡迎掃碼關注個人公眾號&#xff01; 目錄 一、基本介紹 二、工作原理 三、相關特性 四、資源清單&#xff08;示例&#xff09; 五…

C語言經典習題20

一編寫一個函數用于計算高于平均分的人數 編寫一個函數int fun(float s[],int n)&#xff0c;用于計算高于平均分的人數&#xff0c;并作為函數值返回&#xff0c;其中數組s中存放n位學生的成績。再編寫一個主函數&#xff0c;從鍵盤輸入一批分數&#xff08;用-1來結束輸入&a…

電路分析答疑 1

三要素法求解的時候&#xff0c; 電容先求U&#xff0c;再利用求導求I 電感先求I&#xff0c;再利用求導求U 若I的頭上沒有點點&#xff0c;那就是求有效值 疊加定理&#xff0c;不要忘記 若電流值或者電壓值已經給出來了&#xff0c;那就說明這一定是直流電。 在畫畫圈的時候…

數據庫(25)——多表關系介紹

在項目開發中&#xff0c;進行數據庫表結構設計時&#xff0c;會根據業務需求及業務模塊之間的關系&#xff0c;分析并設計表結構&#xff0c;各個表之間的結構基本上分為三種&#xff1a;一對多&#xff0c;多對多&#xff0c;一對一。 一對多 例如&#xff0c;一個學校可以有…

Mac修改Mysql8.0密碼

轉載請標明出處&#xff1a;http://blog.csdn.net/donkor_/article/details/139392605 文章目錄 前言修改密碼Step1:修改my.conf文件Step2:添加配置skip-grant-tablesStep3:重啟mysql服務Step4:進入mysqlStep5:刷新權限Step6:修改密碼Step7:再次刷新權限Step8:刪除/注釋 skip-…

DNS域名

DNS域名 DNS是域名系統的簡稱 域名和ip地址之間的映射關系 互聯網中&#xff0c;ip地址是通信的唯一標識 訪問網站&#xff0c;域名&#xff0c;ip地址不好記&#xff0c;域名朗朗上口&#xff0c;好記。 域名解析的目的就是為了實現&#xff0c;訪問域名就等于訪問ip地址…

【Python】 獲取當前日期的Python代碼解析與應用

標題&#xff1a;Python中獲取當前日期的簡單指南 基本原理 在Python中&#xff0c;獲取當前日期是一個常見的需求&#xff0c;尤其是在處理日志、數據記錄和時間相關的任務時。Python提供了多種方式來獲取和處理日期和時間&#xff0c;其中最常用的模塊是datetime。datetime…

多客陪玩系統-開源陪玩系統平臺源碼-支持游戲線上陪玩家政線下預約等多場景應用支持H5+小程序+APP

多客陪玩系統-開源陪玩系統平臺源碼-支持游戲線上陪玩家政按摩線下預約等多場景應用支持H5小程序APP 軟件架構 前端&#xff1a;Uniapp-vue2.0 后端&#xff1a;Thinkphp6 前后端分離 前端支持&#xff1a; H5小程序雙端APP&#xff08;安卓蘋果&#xff09; 安裝教程 【商業…

學習VUE3——組件(一)

組件注冊 分為全局注冊和局部注冊兩種。 全局注冊&#xff1a; 在main.js或main.ts中&#xff0c;使用 Vue 應用實例的 .component() 方法&#xff0c;讓組件在當前 Vue 應用中全局可用。 import { createApp } from vue import MyComponent from ./App.vueconst app crea…