PyTorch深度學習實踐---筆記

PyTorch深度學習實踐---筆記

  • 2.線性模型(Linear Model)
    • 2.exercise
  • 3. 梯度下降算法(Gradient Descent)
    • 3.1梯度下降(Gradient Descent)
    • 3.2 隨機梯度下降(Stochastic Gradient Descent)
  • 4. 反向傳播(Back Propagation)
  • 5. 用PyTorch實現線性回歸
  • 6. 邏輯回歸(Logistics Regression)
  • 7. 處理多維特征的輸入(Multiple Dimension Input)
  • 8. 加載數據集
  • 9. 多分類問題

2.線性模型(Linear Model)

import numpy as np
import matplotlib.pyplot as pltx_data=[1.0,2.0,3.0]
y_data=[2.0,4.0,6.0]def forward(x):return x*wdef loss(x,y):y_pred=forward(x)return (y_pred-y)*(y_pred-y)w_list=[]
mse_list=[]
for w in np.arange(0.0,4.1,0.1):print('w=',w)l_sum=0for x_val,y_val in zip(x_data,y_data):y_pred_val=forward(x_val)loss_val=loss(x_val,y_val)l_sum+=loss_valprint('\t',x_val,y_val,y_pred_val,loss_val)print('MSE=',l_sum/3)w_list.append(w)mse_list.append(l_sum/3)plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()

在這里插入圖片描述

Exercise:
在這里插入圖片描述

[Link](The mplot3d toolkit — Matplotlib 3.7.1 documentation)
[docs](numpy.meshgrid — NumPy v1.25 Manual)

2.exercise

import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
%matplotlib notebookx_data=[1.0,2.0,3.0]
y_data=[3.0,5.0,7.0]def forward(x):return x*w+bdef loss(x,y):y_pred=forward(x)return (y_pred-y)*(y_pred-y)w_list=[]
mse_list=[]
b_list=[]
for w in np.arange(0.0,3.1,0.1):for b in np.arange(-1,1.1,0.1):print('w=',w)print('b=',b)l_sum=0for x_val,y_val in zip(x_data,y_data):y_pred_val=forward(x_val)loss_val=loss(x_val,y_val)l_sum+=loss_valprint('\t',x_val,y_val,y_pred_val,loss_val)print('MSE=',l_sum/3)w_list.append(w)b_list.append(b)mse_list.append(l_sum/3)
W=np.array(w_list)
W=np.unique(W)
B=np.array(b_list)
B=np.unique(B)
MSE=np.array(mse_list)W,B=np.meshgrid(W,B)
MSE=MSE.reshape(21,31)
fig=plt.figure()
ax=Axes3D(fig)
ax.plot_surface(W, B, MSE, cmap='rainbow')ax.set_xlabel('W', color='b')
ax.set_ylabel('B', color='g')
ax.set_zlabel('MSE', color='r')
plt.show()

在這里插入圖片描述

3. 梯度下降算法(Gradient Descent)

3.1梯度下降(Gradient Descent)

import matplotlib.pyplot as plt  x_data = [1.0, 2.0, 3.0]  
y_data = [2.0, 4.0, 6.0]  w = 1.0  def forward(x):  return x * w  def cost(xs, ys):  cost = 0  for x, y in zip(xs, ys):  y_pred = forward(x)  cost += (y_pred - y) ** 2  return cost / len(xs)  def gradient(xs, ys):  grad = 0  for x, y in zip(xs, ys):  grad += 2 * x * (x * w - y)  return grad / len(xs)  print('Predict(before training)', 4, forward(4))  
cost_list = []  
epoch_list = []  
for epoch in range(100):  cost_val = cost(x_data, y_data)  grad_val = gradient(x_data, y_data)  w -= 0.01 * grad_val  cost_list.append(cost_val)  epoch_list.append(epoch)  print('Epoch:', epoch, 'w=', w, 'loss', cost_val)  
print('Predict(after training)', 4, forward(4))  plt.plot(epoch_list, cost_list)  
plt.xlabel('Epoch')  
plt.ylabel('MSE')  
plt.show()

在這里插入圖片描述

3.2 隨機梯度下降(Stochastic Gradient Descent)

import matplotlib.pyplot as plt  x_data = [1.0, 2.0, 3.0]  
y_data = [2.0, 4.0, 6.0]  w = 1.0  def forward(x):  return x * w  def loss(x, y):  y_pred = forward(x)  return (y_pred - y) ** 2  def gradient(x, y):  return 2 * x * (x * w - y)  print('Predict(before training)', 4, forward(4))  
loss_list = []  
epoch_list = []  
for epoch in range(100):  for x, y in zip(x_data, y_data):  grad = gradient(x, y)  w -= 0.01 * grad  print("\tgrad:", x, y, grad)  l = loss(x, y)  print("progress:", epoch, "w=", w, "loss=", l)  epoch_list.append(epoch)  loss_list.append(l)  
print('Predict(after training)', 4, forward(4))  plt.plot(epoch_list, loss_list)  
plt.xlabel('Epoch')  
plt.ylabel('Loss')  
plt.show()

在這里插入圖片描述

4. 反向傳播(Back Propagation)

在這里插入圖片描述

Example 1:
在這里插入圖片描述

在這里插入圖片描述

Exercise 4-1Answer=-8
在這里插入圖片描述

Exercise 4-2 Answer.1=2,Answer.2=2

import torch
from matplotlib import pyplot as plt
x_data=[1.0,2.0,3.0]
y_data=[2.0,4.0,6.0]w=torch.Tensor([1.0])
w.requires_grad=Truedef forward(x):return x*wdef loss(x,y):y_pred=forward(x)return (y_pred-y)**2print("predict (before training)",4,forward(4).item)epoch_list=[]
MSE_list=[]
for epoch in range(100):epoch_list.append(epoch)for x,y in zip(x_data,y_data):l=loss(x,y)l.backward()print('\tgrad:',x,y,w.grad.item())w.data=w.data-0.01*w.grad.dataw.grad.data.zero_()print("progress:",epoch,l.item())MSE_list.append(l.item())
print("prdict (after training)",4,forward(4).item())plt.plot(epoch_list,MSE_list)
plt.xlabel('Epoch')  
plt.ylabel('Loss')
plt.set_tittle("PyTorch")
plt.show()

在這里插入圖片描述
在這里插入圖片描述

Answer.1:
? L o s s ? w 1 = 2 ? ( w 1 ? x 2 + w 2 ? x + b ? y ) ? x 2 \frac{\partial Loss}{\partial w_1}=2*(w_1*x^2+w_2*x+b-y)*x^2 ?w1??Loss?=2?(w1??x2+w2??x+b?y)?x2

Answer.2:
? L o s s ? w 2 = 2 ? ( w 1 ? x 2 + w 2 ? x + b ? y ) ? x \frac {\partial Loss}{\partial w_2}=2*(w_1*x^2+w_2*x+b-y)*x ?w2??Loss?=2?(w1??x2+w2??x+b?y)?x

Answer.3:
? L o s s ? b = 2 ? ( w 1 ? x 2 + w 2 ? x + b ? y ) \frac {\partial Loss}{\partial b}=2*(w_1*x^2+w_2*x+b-y) ?b?Loss?=2?(w1??x2+w2??x+b?y)

在這里插入圖片描述

import torch
from matplotlib import pyplot as plt
x_data=[1.0,2.0,3.0]
y_data=[2.0,4.0,6.0]w_1=torch.Tensor([1.0])
w_1.requires_grad=True
w_2=torch.Tensor([2.0])
w_2.requires_grad=True
b=torch.Tensor([3.0])
b.requires_grad=Truedef forward(x):return w_1*(x**2)+w_2*x+bdef loss(x,y):y_pred=forward(x)return (y_pred-y)**2print("predict (before training)",4,forward(4).item)epoch_list=[]
MSE_list=[]
for epoch in range(100):epoch_list.append(epoch)for x,y in zip(x_data,y_data):l=loss(x,y)l.backward()print('\tgrad:','X:',x,'Y:',y,w_1.grad.item(),w_2.grad.item(),b.grad.item())w_1.data=w_1.data-0.01*w_1.grad.dataw_2.data=w_2.data-0.01*w_2.grad.datab.data=b.data-0.01*b.grad.dataw_1.grad.data.zero_()w_2.grad.data.zero_()b.grad.data.zero_()print("progress:",epoch,l.item())MSE_list.append(l.item())
print("prdict (after training)",4,forward(4).item(),'w_1=',w_1.item(),'w_2=',w_2.item(),'b=',b.data.item())plt.plot(epoch_list,MSE_list)
plt.xlabel('Epoch')  
plt.ylabel('Loss')
plt.title("PyTorch")
plt.show()

在這里插入圖片描述

5. 用PyTorch實現線性回歸

在這里插入圖片描述

前饋->反饋->更新
前饋算損失,反饋算梯度,然后更新,反反復復
在這里插入圖片描述

import torch
x_data=torch.Tensor([[1.0],[2.0],[3.0]])
y_data=torch.Tensor([[2.0],[4.0],[6.0]])class LinearModel(torch.nn.Module):#LinearModel相當于是繼承torch.nn.Module的子類def __init__(self):#Python中類的初始化都是__init__()super(LinearModel,self).__init__()#繼承父類的__init__方法,在__init__初始化方法后還想繼承父類的__init__(),就在子類中使用super()函數self.linear=torch.nn.Linear(1,1)#定義子類的linear屬性def forward(self,x):y_pred=self.linear(x)#調用子類的linear屬性return y_pred
model=LinearModel()#創建類LinearModel的實例criterion=torch.nn.MSELoss(reduction='sum')#損失函數
optimizer=torch.optim.SGD(model.parameters(),lr=0.01)#優化器for epoch in range(1000):#訓練迭代y_pred=model(x_data)loss=criterion(y_pred,y_data)print(epoch,loss.item())optimizer.zero_grad()#梯度清零loss.backward()#反向傳播optimizer.step()#計算梯度,梯度更新print('w =',model.linear.weight.item())
print('b =',model.linear.bias.item())x_test=torch.Tensor([4.0])
y_test=model(x_test)
print('y_pred =',y_test.data)

這篇文章可以幫助理解LinearModel的寫法

python類中super()_wanghua609的博客-CSDN博客

6. 邏輯回歸(Logistics Regression)

邏輯回歸主要用于分類問題,線性回歸的輸出值是連續空間
Classification Problem

類別之間沒有大小關系

分類問題的輸出是一個概率問題,為Ⅰ類的概率是多少,為Ⅱ類的概率是多少…
根據概率值的最大值判斷所屬類別。

在這里插入圖片描述

實際上計算的就是 y_hat=1 的概率。
要將輸出值映射到【0,1】,因為概率值是在【0,1】的。
Sigmoid函數也是一種飽和函數(輸入值x大于某個值后,輸出值y基本不變)。
sigmoid函數中最出名的函數就是Logistics函數,因此大多數書籍資料中將Logistics函數成為sigmoid函數。
σ()就是sigmoid函數。
在這里插入圖片描述

計算分布之間的差異。
這個用于二分類的函數,叫做BCE函數。(CE:cross-entropy)
在這里插入圖片描述

在這里插入圖片描述

#torch.nn.Functional.sigmoid() use torch.sigmoid() instead.
import torch
import numpy as np
import matplotlib.pyplot as pltx_data=torch.Tensor([[1.0],[2.0],[3.0]])
y_data=torch.Tensor([[0],[0],[1]])class LogisticRegressionModel(torch.nn.Module):def __init__(self):super(LogisticRegressionModel,self).__init__()self.linear=torch.nn.Linear(1,1)def forward(self,x):y_pred=torch.sigmoid(self.linear(x))return y_predmodel=LogisticRegressionModel()criterion=torch.nn.BCELoss(reduction='sum')
#size_average=True
#size_average and reduce args will be deprecated, 
#please use reduction='mean' instead.
optimizer=torch.optim.SGD(model.parameters(),lr=0.01)for epoch in range(1000):y_pred=model(x_data)loss=criterion(y_pred,y_data)print(epoch,loss.item())optimizer.zero_grad()loss.backward()optimizer.step()x=np.linspace(0,10,200)
x_t=torch.Tensor(x).view((200,1))
y_t=model(x_t)
y=y_t.data.numpy()
plt.plot(x,y)
plt.plot([0,10],[0.5,0.5],c='r')
plt.xlabel('Hours')
plt.ylabel('Probability of Pass')
plt.grid()
plt.show()

在這里插入圖片描述

7. 處理多維特征的輸入(Multiple Dimension Input)

輸入值有多個特征
每一行成為Record, 每一列叫做Feature(特征/字段),結構化的數據。
在這里插入圖片描述

每一個特征值都要與一個權重相乘,x看成一個向量,乘上w1到w8,標量轉置相乘做內積。
σ就是sigmoid函數。
計算轉化成向量化的運算,然后通過并行計算,通過GPU的能力,提高運算速度。
矩陣可以看作是空間變換的函數。
在這里插入圖片描述
在這里插入圖片描述

從8個特征(8維)學到6個特征(6維)再到4個特征,最后到1個特征。
當然也可以直接從8個特征學到1個特征

import numpy as np
import torch
import matplotlib.pyplot as pltxy = np.loadtxt('diabetes.csv', delimiter=',', dtype=np.float32)
x_data = torch.from_numpy(xy[:, :-1]) 
y_data = torch.from_numpy(xy[:, [-1]]) class Model(torch.nn.Module):def __init__(self):super(Model, self).__init__()self.linear1 = torch.nn.Linear(8, 6)self.linear2 = torch.nn.Linear(6, 4)self.linear3 = torch.nn.Linear(4, 1)self.sigmoid = torch.nn.Sigmoid() def forward(self, x):x = self.sigmoid(self.linear1(x))x = self.sigmoid(self.linear2(x))x = self.sigmoid(self.linear3(x)) return xmodel = Model()criterion = torch.nn.BCELoss(reduction='mean')  
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)epoch_list = []
loss_list = []for epoch in range(100000):y_pred = model(x_data)loss = criterion(y_pred, y_data)print(epoch, loss.item())epoch_list.append(epoch)loss_list.append(loss.item())optimizer.zero_grad()loss.backward()optimizer.step()plt.plot(epoch_list, loss_list)
plt.ylabel('loss')
plt.xlabel('epoch')
plt.show()

在這里插入圖片描述

8. 加載數據集

Dataset主要用于構建數據集,支持索引(利用下標)
Dataloader主要用于Mini-Batch
在這里插入圖片描述

在這里插入圖片描述

在這里插入圖片描述

筆記來源:《PyTorch深度學習實踐》完結合集

9. 多分類問題

輸出時,每一個輸出代表每種標簽的概率。屬于1的概率是多少,屬于2的概率是多少,等等。各個輸出值大于0,且值得的合等于1。

本筆記來自:【《PyTorch深度學習實踐》完結合集】 https://www.bilibili.com/video/BV1Y7411d7Ys/?share_source=copy_web&vd_source=292129053a8880be150381f42c6b50c4

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/37419.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/37419.shtml
英文地址,請注明出處:http://en.pswp.cn/news/37419.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

亞馬遜測評工作室怎么做?

亞馬遜是全球最大的電商平臺之一,任何一個賣家想要提升自己店鋪的知名度和銷量,都需要關注自己Listing的Review數量和星級評價,而測評對于賣家賬號的評定和產品曝光量有著重要影響,可以用于店鋪提升銷量,留評等 在進行…

【GC日志分析】-對象晉升到老年代分析

[GC (Allocation Failure) [PSYoungGen: 123456K->65432K(262144K)] 123456K->765432K(1048576K), 0.1234567 secs] [Times: user0.10 sys0.02, real0.13 secs] 從這段GC日志中,可以看到兩個年輕代和老年代的堆內存容量變化情況。 首先,我們來看…

百度坐標(BD09)、國測局坐標(火星坐標,GCJ02)、和WGS84坐標系之間的轉換

<!DOCTYPE html> <html><head><meta charset"UTF-8"><title></title></head><body><script>/*** * 百度坐標&#xff08;BD09&#xff09;、國測局坐標&#xff08;火星坐標&#xff0c;GCJ02&#xff09;、和…

c51單片機串口通信(中斷方式接收數據)(單片機--單片機通信)示例代碼 附proteus圖

單片機一般采用中斷方式接受數據&#xff0c;這樣便于及時處理 #include "reg51.h" #include "myheader.h" #define uchar unsigned char int szc[10]{0xc0,0xf9,0xa4,0xb0,0x99,0x92,0x82,0xf8,0x80,0x90}; int bufferc[6]{0}; int sza[6]{0x01,0x02,0x0…

HOT96-只出現一次的數字

leetcode原題鏈接&#xff1a;只出現一次的數字 題目描述 給你一個 非空 整數數組 nums &#xff0c;除了某個元素只出現一次以外&#xff0c;其余每個元素均出現兩次。找出那個只出現了一次的元素。你必須設計并實現線性時間復雜度的算法來解決此問題&#xff0c;且該算法只使…

TEXTure環境配置,跑通inference的demo

TEXTure 環境配置安裝kaolin這個包,這里可能會遇到各種問題配置huggingface的訪問令牌 運行Text Conditioned Texture Generation指令報錯1報錯2成功運行 查看結果查看貼圖后的三維網格模型 環境配置 # 創建一個名為texture的環境 conda create -n texture python3.9 -y# 激活…

EasyLLM:簡化語言模型處理,實現 OpenAI 和 Hugging Face 客戶端的無縫切換

前言 在這短短不到一年的時間里&#xff0c;國內外涌現的大型語言模型&#xff08;LLM&#xff09;可謂是百花齊放&#xff0c;不管是開源還是閉源都出現了一些非常優秀的模型&#xff0c;然而在利用LLM進行應用開發的時候&#xff0c;會發現每個模型從部署、到訓練、微調、AP…

人工智能任務1-【NLP系列】句子嵌入的應用與多模型實現方式

大家好&#xff0c;我是微學AI&#xff0c;今天給大家介紹一下人工智能任務1-【NLP系列】句子嵌入的應用與多模型實現方式。句子嵌入是將句子映射到一個固定維度的向量表示形式&#xff0c;它在自然語言處理&#xff08;NLP&#xff09;中有著廣泛的應用。通過將句子轉化為向量…

ASP.NET Core - 緩存之分布式緩存

分布式緩存是由多個應用服務器共享的緩存&#xff0c;通常作為訪問它的應用服務器的外部服務進行維護。 分布式緩存可以提高 ASP.NET Core 應用的性能和可伸縮性&#xff0c;尤其是當應用由云服務或服務器場托管時。 與其他將緩存數據存儲在單個應用服務器上的緩存方案相比&am…

沁恒ch32V208處理器開發(三)GPIO控制

目錄 GPIO功能概述 CH32V2x 微控制器的GPIO 口可以配置成多種輸入或輸出模式&#xff0c;內置可關閉的上拉或下拉電阻&#xff0c;可以配置成推挽或開漏功能。GPIO 口還可以復用成其他功能。端口的每個引腳都可以配置成以下的多種模式之一&#xff1a; 1 浮空輸入 2 上拉輸入…

AMEYA360:DNB1101大唐恩智浦工規級電池管理芯片

大唐恩智浦作為全球領先的半導體供應商&#xff0c;一直致力于為全球客戶提供高質量的解決方案。在電池管理芯片領域&#xff0c;大唐恩智浦推出的DNB1101可謂是一款工規級的電池管理芯片&#xff0c;其卓越的性能和可靠性成為市場上備受全球領先的半導體供應商&#xff0c;一直…

c#編碼技巧(十四):全面總結delegate、Func委托的寫法演變

delegate委托對于初學者來說不太好理解。 按筆者的經驗&#xff0c;delegate本質是函數指針&#xff0c;可以把它理解為某一類方法的入口&#xff0c;把他翻譯為&#xff1a;“長得像XXX的函數方法&#xff08;入參是什么、返回值是什么&#xff09;”可能更容易理解。 以下示例…

2023杭電多校第7場M題-M. Minimal and Maximal XOR Sum

題目鏈接&#xff1a;csoj | M. Minimal and Maximal XOR Sum (scnu.edu.cn) 解題思路&#xff1a; 最小值&#xff1a;每次操作的區間長度為2&#xff0c;即交換兩個相鄰數&#xff0c;每次異或2(10)&#xff0c;故最小值肯定為2(10)或0(00)&#xff0c;如果是偶排序最小值是…

Java接口壓力測試—如何應對并優化Java接口的壓力測試

導言 在如今的互聯網時代&#xff0c;Java接口壓力測試是評估系統性能和可靠性的關鍵一環。一旦接口不能承受高并發量&#xff0c;用戶體驗將受到嚴重影響&#xff0c;甚至可能導致系統崩潰。因此&#xff0c;了解如何進行有效的Java接口壓力測試以及如何優化接口性能至關重要…

SpringBoot復習:(48)RedisAutoConfiguration自動配置類

RedisAutoConfiguration類代碼如下&#xff1a; 可以看到在這個類中配置了2個bean: redisTemplate和stringRedisTemplate. 而它通過EnableConfigurationProperties(RedisProperties.class)注解&#xff0c;把配置文件中配置的Redis相關的信息引入進來了&#xff0c;RedisPrope…

安裝Linux操作系統CentOS 6詳細圖文步驟

為滿足業務對Linux操作系統部署的要求&#xff0c;本文檔主要提供CentOS 6操作系統的最小化安裝和基本配置, 安裝本系統建議最少1GB內存和2GB磁盤空間。 1、 使用光盤或者掛載ISO鏡像&#xff0c;在出現如下圖形界面時選擇【Install or upgrade an existing system】并按Ent…

CLickhouse核心特性

目錄 CLickhouse核心特性 1 完備的DBMS功能 2 列式存儲與數據壓縮 3 向量化執行引擎 4 關系模型與SQL查詢 5 多樣化的表引擎 6 多線程與分布式 7 多主架構 8 在線查詢 9 數據分片與分布式查詢 Clickhouse適用場景 Clickhouse不適用場景 Clickhouse名稱含義 CLickh…

P8642 [藍橋杯 2016 國 AC] 路徑之謎

[藍橋杯 2016 國 AC] 路徑之謎 題目描述 小明冒充 X X X 星球的騎士&#xff0c;進入了一個奇怪的城堡。 城堡里邊什么都沒有&#xff0c;只有方形石頭鋪成的地面。 假設城堡地面是 n n n\times n nn 個方格。如圖所示。 按習俗&#xff0c;騎士要從西北角走到東南角。 …

C/C++中const關鍵字詳解

為什么使用const&#xff1f;采用符號常量寫出的代碼更容易維護&#xff1b;指針常常是邊讀邊移動&#xff0c;而不是邊寫邊移動&#xff1b;許多函數參數是只讀不寫的。const最常見用途是作為數組的界和switch分情況標號(也可以用枚舉符代替)&#xff0c;分類如下&#xff1a;…

音視頻 vs2017配置FFmpeg

vs2017 ffmpeg4.2.1 一、首先我把FFmpeg整理了一下&#xff0c;放在C盤 二、新建空項目 三、添加main.cpp&#xff0c;將bin文件夾下dll文件拷貝到cpp目錄下 #include<stdio.h> #include<iostream>extern "C" { #include "libavcodec/avcodec.h&…