04數據操作
import torch
(1)張量表示一個數據組成的數組,這個數組可能有多個維度。
x=torch.arange(12)
x
tensor([ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11])
(2)通過shape來訪問張量的形狀和張量中元素的總數
x.shape
torch.Size([12])
(3)number of elements表示內存的大小
x.numel()
12
(4)要改變一個張量的形狀而不改變元素數量和元素值,我們要調用reshape函數
x=x.reshape(3,4)
x
tensor([[ 0, 1, 2, 3],[ 4, 5, 6, 7],[ 8, 9, 10, 11]])
(5)使用全0、全1、其他常量或者從特定分布中隨機采樣的數字
torch.zeros((2,3,4))
tensor([[[0., 0., 0., 0.],[0., 0., 0., 0.],[0., 0., 0., 0.]],[[0., 0., 0., 0.],[0., 0., 0., 0.],[0., 0., 0., 0.]]])
torch.ones((2,3,4))
tensor([[[1., 1., 1., 1.],[1., 1., 1., 1.],[1., 1., 1., 1.]],[[1., 1., 1., 1.],[1., 1., 1., 1.],[1., 1., 1., 1.]]])
(6)通過提供包含數值的Python列表或者嵌套列表來為所需張量中的每個元素賦予確定值
torch.tensor([[2,1,4,3],[1,2,3,4],[4,3,2,1]])
tensor([[2, 1, 4, 3],[1, 2, 3, 4],[4, 3, 2, 1]])
(7)創建元素進行相應的運算
x=torch.tensor([1.0,2,4,8])
y=torch.tensor([2,2,2,2])
x+y,x-y,x*y,x/y,x**y
(tensor([ 3., 4., 6., 10.]),tensor([-1., 0., 2., 6.]),tensor([ 2., 4., 8., 16.]),tensor([0.5000, 1.0000, 2.0000, 4.0000]),tensor([ 1., 4., 16., 64.]))
torch.exp(x) #指數運算
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])
(8)我們這里把多個張量連結在一起
X=torch.arange(12,dtype=torch.float32).reshape((3,4))
Y=torch.tensor([[2.0,1,4,3],[1,2,3,4],[4,3,2,1]])
torch.cat((X,Y),dim=0),torch.cat((X,Y),dim=1) #dim=0表示按行連接;dim=1表示按列連接
(tensor([[ 0., 1., 2., 3.],[ 4., 5., 6., 7.],[ 8., 9., 10., 11.],[ 2., 1., 4., 3.],[ 1., 2., 3., 4.],[ 4., 3., 2., 1.]]),tensor([[ 0., 1., 2., 3., 2., 1., 4., 3.],[ 4., 5., 6., 7., 1., 2., 3., 4.],[ 8., 9., 10., 11., 4., 3., 2., 1.]]))
(9)通過邏輯運算符構建二元張量
X==Y
tensor([[False, True, False, True],[False, False, False, False],[False, False, False, False]])
對只有兩種所有元素求和會產生一個只有一個元素的張量
X.sum()
tensor(66.)
(10)即使形狀不同,我們可以調用廣播機制來執行按元素操作
a=torch.arange(3).reshape((3,1))
b=torch.arange(2).reshape((1,2))
a,b
(tensor([[0],[1],[2]]),tensor([[0, 1]]))
a + b #這里廣播機制將a變成三行兩列的部分,第一列加0;第二列加1
tensor([[0, 1],[1, 2],[2, 3]])
(11)選用元素,其中-1用于選用最后一個元素,[1:3]用于選用第二個和第三個元素
X[-1],X[1:3]
(tensor([ 8., 9., 10., 11.]),tensor([[ 4., 5., 6., 7.],[ 8., 9., 10., 11.]]))
(12)索引元素進行修改
X[1,2]=9
X
tensor([[ 0., 1., 2., 3.],[ 4., 5., 9., 7.],[ 8., 9., 10., 11.]])
(13)對多個元素進行相應的賦值
X[0:2,:]=12
X
tensor([[12., 12., 12., 12.],[12., 12., 12., 12.],[ 8., 9., 10., 11.]])
(14)運行一些操作可能會導致為新結果分配內存
before=id(Y)
Y=Y+X
id(Y)==before
False
#執行原地操作
Z=torch.zeros_like(Y)#類型一樣但全0
print('id(Z):',id(Z))
Z[:]=X+Y
print('id(Z):',id(Z))
id(Z): 2415349231888
id(Z): 2415349231888
#在后續計算中沒有重復使用X,可以減少操作的內存開銷
before=id(X)
X+=Y #or X[:]=X+Y
id(X)==before
True
(15)轉換為NUMPY張量
A=X.numpy()
B=torch.tensor(A)
type(A),type(B)
(numpy.ndarray, torch.Tensor)
將大小為1的張量轉換為Python標量
a=torch.tensor([3.5])
a,a.item(),float(a),int(a)
(tensor([3.5000]), 3.5, 3.5, 3)