[pytorch、學習] - 4.1 模型構造

參考

4.1 模型構造

讓我們回顧以下多重感知機的簡潔實現中包含單隱藏層的多重感知機的實現方法。我們首先構造Sequential實例,然后依次添加兩個全連接層。其中第一層的輸出大小為256,即隱藏層單元個數是256;第二層的輸出大小為10,即輸出層單元個數是10.

4.1.1 繼承Module類來構造模型

Module類是nn模塊里提供的一個模型構造類,是所有神經網絡模塊的基類,我們可以繼承它來定義我們想要的模型。下面繼承Module類構造本節開頭提到的多層感知機。這里定義的MLP類重載了Module類的__init__函數。它們分別用于創建模型和定義前向計算。

import torch
from torch import nnclass MLP(nn.Module):# 聲明帶有模型參數的層,這里聲明了兩個全連接層def __init__(self, **kwargs):# 調用MLP父類Module的構造函數來進行必要的初始化。這樣在構造實例時還可以指定其他函數# 參數,如"模型參數的訪問、初始化和共享"super(MLP, self).__init__(**kwargs)self.hidden = nn.Linear(784, 256)self.act = nn.ReLU()self.output = nn.Linear(256,10)# 定義模型的向前運算,即如何根據輸入x計算返回所需要的模型輸出def forward(self, x):a = self.act(self.hidden(x))return self.output(a)

以上MLP類中無須定義反向傳播函數。系統將通過自動求梯度而生成反向傳播所需的backward函數。

我們可以實例化MLP類得到模型變量net。下面的代碼初始化net并傳入數據X做一次前向計算。

X = torch.rand(2, 784)
net = MLP()
print(net)

在這里插入圖片描述
注意,這里并沒有將Module類命名為Layer(層)或者Model(模型)之類的名字,這是因為該類是一個可供自由組建的部件。它的子類既可以是一個層(如PyTorch提供的Linear類),又可以是一個模型(如這里定義的MLP類),或者是模型的一個部分。我們下面通過兩個例子來展示它的靈活性。

4.1.2 Module的子類

我們剛剛提到,Module類是一個通用的部件。事實上,PyTorch還實現了繼承自Module的可以方便構建模型的類: 如SequentialModuleListModuleDict等等。

4.1.2.1 Sequential

它可以接收一個子模塊的有序字典(OrderedDict)或者一系列子模塊作為參數來逐一添加Module的實例,而模型的前向計算就是將這些實例添加的順序逐一計算。
下面我們實現一個與Sequential類有相同功能的MySequential類。這或許可以幫助讀者更加清晰地理解Sequential類的工作機制

class MySequential(nn.Module):from collections import OrderedDictdef __init__(self, *args):super(MySequential, self).__init__()   # 調用父類if len(args) == 1 and isinstance(args[0], OrderedDict):  # 如果傳入的是一個OrderedDictfor key, module in args[0].items():self.add_module(key, module)  # add_module方法會將module添加進self._modules(一個OrderedDict)else:  # 傳入的是一些Modulefor idx, module in enumerate(args):self.add_module(str(idx), module)def forward(self, input):# self._modules返回一個 OrderedDict(),保證會按照成員添加時的順序遍歷成員for module in self._modules.values():input = module(input)return input
# 利用 MySequential類定義網絡
net = MySequential(nn.Linear(784, 256),nn.ReLU(),nn.Linear(256, 10)
)
print(net)
net(X)

在這里插入圖片描述

4.1.2.2 ModuleList

ModuleList接收一個子模塊的列表作為輸入,然后也可以類似List那樣進行append和extend操作:

net = nn.ModuleList([nn.Linear(784, 256), nn.ReLU()])
net.append(nn.Linear(256, 10))  # 類似List的append操作
print(net[-1])
print(net)

在這里插入圖片描述
既然SequentialModuleList都可以進行列表化構造函數,那二者區別是什么呢。
ModuleList僅僅是一個存儲各種模塊的列表,這些模塊之間沒有聯系也沒有順序(所以不用保證相鄰層的輸入輸出維度匹配),而且沒有實現forward功能需要自己實現,所以上面執行net(torch.zeros(1, 784))會報NotImplementedError;而Sequential內的模塊需要按照順序排列,要保證相鄰層的輸入輸出大小匹配,內部forward功能已經實現。

class MyModule(nn.Module):def __init__(self):super(MyModule, self).__init__()self.linears = nn.ModuleList([nn.Linear(10, 10) for i in range(10)])def forward(self, x):for i, l in enumerate(self.linears):x = self.linears[i // 2](x) + l(x)return x
# 另外, ModuleList不同于一般的Python的list,加入到ModuleList里面的所有模塊的參數會被自動添加到整個網絡中
class Module_ModuleList(nn.Module):def __init__(self):super(Module_ModuleList, self).__init__()self.linears = nn.ModuleList([nn.Linear(10, 10)])class Module_List(nn.Module):def __init__(self):super(Module_List, self).__init__()self.linears = [nn.Linear(10, 10)]net1 = Module_ModuleList()
net2 = Module_List()print("net1: ")
for p in net1.parameters():print(p.size())print("net2: ")
for p in net2.parameters():print(p)

在這里插入圖片描述

4.1.2.3 ModuleDict

ModuleDict接收一個子模塊的字典作為輸入,然后也可以類似字典那樣添加訪問操作

net = nn.ModuleDict({'linear': nn.Linear(784, 256),'act': nn.ReLU(),
})
net['output'] = nn.Linear(256, 10)
print(net['linear'])
print(net.output)
print(net)

在這里插入圖片描述

4.1.3 構造復雜的模型

下面構造一個相對復雜的網絡FancyMLP。在這個網絡中,我們通過get_constant函數創建訓練中不被迭代的參數,即常數參數。在前向計算中,除了使用創建的常數參數外,我們還使用Tensor的函數和Python的控制流,并多次調用相同的層。

class FancyMLP(nn.Module):def __init__(self, **kwargs):super(FancyMLP, self).__init__(**kwargs)self.rand_weight = torch.rand((20, 20), requires_grad=False)self.linear = nn.Linear(20, 20)def forward(self, x):print(x)x = self.linear(x)# 使用創建的常數參數,以及nn.functional中的relu函數和mm函數# torch.mm矩陣的乘法x = nn.functional.relu(torch.mm(x, self.rand_weight.data) + 1)# 復用全連接層。x = self.linear(x)# 控制流,這里我們需要調用item函數來返回標量進行比較while x.norm().item() > 1:x /= 2if x.norm().item() < 0.8:x *= 10return x.sum()
X = torch.rand(2, 20)
net = FancyMLP()
net(X)

在這里插入圖片描述

# 嵌套調用 FancyMLP和 Sequential類
class NestMLP(nn.Module):def __init__(self, **kwargs):super(NestMLP, self).__init__(**kwargs)self.net = nn.Sequential(nn.Linear(40, 30), nn.ReLU())def forward(self, x):return self.net(x)net = nn.Sequential(NestMLP(), nn.Linear(30, 20), FancyMLP())X = torch.rand(2, 40)
print(net)
net(X)

在這里插入圖片描述

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/250165.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/250165.shtml
英文地址,請注明出處:http://en.pswp.cn/news/250165.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

springboot---基本模塊詳解

概述 1.基于Spring框架的“約定優先于配置&#xff08;COC&#xff09;”理念以及最佳實踐之路。 2.針對日常企業應用研發各種場景的Spring-boot-starter自動配置依賴模塊&#xff0c;且“開箱即用”&#xff08;約定spring-boot-starter- 作為命名前綴&#xff0c;都位于org.…

第二課 運算符(day10)

第二課 運算符(day10) 一、運算符 結果是值 算數運算 a 10 * 10 賦值運算 a a 1 a1 結果是布爾值 比較運算 a 1 > 5 邏輯運算 a 1>6 or 11 成員運算 a "蚊" in "鄭建文" 二、基本數據類型 1、數值…

[pytorch、學習] - 4.2 模型參數的訪問、初始化和共享

參考 4.2 模型參數的訪問、初始化和共享 在3.3節(線性回歸的簡潔實現)中,我們通過init模塊來初始化模型的參數。我們也介紹了訪問模型參數的簡單方法。本節將深入講解如何訪問和初始化模型參數,以及如何在多個層之間共享同一份模型參數。 import torch from torch import nn…

spring-boot注解詳解(三)

1.SpringBoot/spring SpringBootApplication: 包含Configuration、EnableAutoConfiguration、ComponentScan通常用在主類上&#xff1b; Repository: 用于標注數據訪問組件&#xff0c;即DAO組件&#xff1b; Service: 用于標注業務層組件&#xff1b; RestController: 用于…

IEnumerableT和IQueryableT區分

哎&#xff0c;看了那么多&#xff0c;這個知識點還是得開一個文章 IQueryable和IEnumerable都是延時執行(Deferred Execution)的&#xff0c;而IList是即時執行(Eager Execution) IQueryable和IEnumerable在每次執行時都必須連接數據庫讀取&#xff0c;而IList讀取一次后&…

表的轉置 行轉列: DECODE(Oracle) 和 CASE WHEN 的異同點

異同點 都可以對表行轉列&#xff1b;DECODE功能上和簡單Case函數比較類似&#xff0c;不能像Case搜索函數一樣&#xff0c;進行更復雜的判斷在Case函數中&#xff0c;可以使用BETWEEN, LIKE, IS NULL, IN, EXISTS等等&#xff08;也可以使用NOT IN和NOT EXISTS&#xff0c;但是…

[pytorch、學習] - 4.4 自定義層

參考 4.4 自定義層 深度學習的一個魅力在于神經網絡中各式各樣的層,例如全連接層和后面章節將要用介紹的卷積層、池化層與循環層。雖然PyTorch提供了大量常用的層,但有時候我們依然希望自定義層。本節將介紹如何使用Module來自定義層,從而可以被重復調用。 4.4.1 不含模型參…

樹的存儲

父親表示法 顧名思義&#xff0c;就是只記錄每個結點的父結點。 int n; int p[MAX_N]; // 指向每個結點的父結點 孩子表示法 如上&#xff0c;就是只記錄每個結點的子結點。 int n; int cnt[MAX_N]; // 記錄每個結點的子結點的數量 int p[MAX_N][MAX_CNT]; // 指向每個結點的子…

spring-boot注解詳解(四)

repository repository跟Service,Compent,Controller這4種注解是沒什么本質區別,都是聲明作用,取不同的名字只是為了更好區分各自的功能.下圖更多的作用是mapper注冊到類似于以前mybatis.xml中的mappers里. 也是因為接口沒辦法在spring.xml中用bean的方式來配置實現類吧(接口…

令人叫絕的EXCEL函數功能

http://club.excelhome.net/thread-166725-1-1.html https://wenku.baidu.com/view/db319da0bb0d4a7302768e9951e79b8969026864.html轉載于:https://www.cnblogs.com/cqufengchao/articles/9150401.html

[pytorch、學習] - 4.5 讀取和存儲

參考 4.5 讀取和存儲 到目前為止,我們介紹了如何處理數據以及如何構建、訓練和測試深度學習模型。然而在實際中,我們有時需要把訓練好的模型部署到很多不同的設備。在這種情況下,我們可以把內存中訓練好的模型參數存儲在硬盤上供后續讀取使用。 4.5.1 讀寫tensor 我們可以直…

JAVA排序的方法

//冒泡排序法&#xff1a; package fuxi;public class Bubble { public static void main(String[] args) { int a[] { 10,23,11,56,45,26,59,28,84,79 }; int i,temp; System.out.println("輸出原始數組數據&#xff1a;"); for (i…

spring-boot注解詳解(五)

AutoWired 首先要知道另一個東西&#xff0c;default-autowire&#xff0c;它是在xml文件中進行配置的&#xff0c;可以設置為byName、byType、constructor和autodetect&#xff1b;比如byName&#xff0c;不用顯式的在bean中寫出依賴的對象&#xff0c;它會自動的匹配其它bea…

什么是p12證書?ios p12證書怎么獲取?

.cer是蘋果的默認證書&#xff0c;在xcode開發打包可以使用&#xff0c;如果在lbuilder、phonegap、HBuilder、AppCan、APICloud這些跨平臺開發工具打包&#xff0c;就需要用到p12文件。 .cer證書僅包含公鑰&#xff0c;.p12證書可能既包含公鑰也包含私鑰&#xff0c;這就是他們…

[pytorch、學習] - 4.6 GPU計算

參考 4.6 GPU計算 到目前為止,我們一直使用CPU進行計算。對復雜的神經網絡和大規模數據來說,使用CPU來計算可能不夠高效。 在本節中,將要介紹如何使用單塊NIVIDA GPU進行計算 4.6.1 計算設備 PyTorch可以指定用來存儲和計算的設備,如果用內存的CPU或者顯存的GPU。默認情況下…

adb connect 192.168.1.10 failed to connect to 192.168.1.10:5555

adb connect 192.168.1.10 輸出 failed to connect to 192.168.1.10:5555 關閉安卓端Wi-Fi&#xff0c;重新打開連接即可 轉載于:https://www.cnblogs.com/sea-stream/p/10020995.html

創建oracle數據庫表空間并分配用戶

我們在本地的oracle上或者virtualbox的oracle上 創建新的數據庫表空間操作&#xff1a;通過system賬號來創建并授權/*--創建表空間create tablespace YUJKDATAdatafile c:\yujkdata200.dbf --指定表空間對應的datafile文件的具體的路徑size 100mautoextend onnext 10m*/ /*--創…

spring-boot注解詳解(六)

Target Target說明了Annotation所修飾的對象范圍&#xff1a;Annotation可被用于 packages、types&#xff08;類、接口、枚舉、Annotation類型&#xff09;、類型成員&#xff08;方法、構造方法、成員變量、枚舉值&#xff09;、方法參數和本地變量&#xff08;如循環變量、…

[pytorch、學習] - 5.1 二維卷積層

參考 5.1 二維卷積層 卷積神經網絡(convolutional neural network)是含有卷積層(convolutional layer)的神經網絡。本章介紹的卷積神經網絡均使用最常見的二維卷積層。它有高和寬兩個空間維度,常用來處理圖像數據。本節中,我們將介紹簡單形式的二維卷積層的工作原理。 5.1.1…

[51CTO]給您介紹Windows10各大版本之間區別

給您介紹Windows10各大版本之間區別 隨著win10的不斷普及和推廣&#xff0c;越來越多的朋友想安裝win10系統了&#xff0c;但是很多朋友不知道win10哪個版本好用&#xff0c;為了讓大家能夠更好的選擇win10系統版本&#xff0c;下面小編就來告訴你 http://os.51cto.com/art/201…