目錄
numpy.linalg.det() 行列式
numpy.linalg.solve() 方程的解
numpy.linalg.inv()?逆矩陣
np.linalg.eig 特征值和特征向量
np.linalg.svd 奇異值分解
np.linalg.pinv 廣義逆矩陣(QR分解)
numpy.linalg模塊包含線性代數的函數。使用這個模塊,可以計算逆矩陣、求特征值、解線性方程組以及求解行列式等線性代數所需的功能
numpy.linalg.det() 行列式
numpy.linalg.det() 函數計算輸入矩陣的行列式。
行列式在線性代數中是非常有用的值。 它從方陣的對角元素計算。 對于 2×2 矩陣,它是左上和右下元素的乘積與其他兩個的乘積的差。換句話說,對于矩陣[[a,b],[c,d]],行列式計算為 ad-bc。 較大的方陣被認為是 2×2 矩陣的組合。
import numpy as np
a = np.array([[1,2], [3,4]])
print (np.linalg.det(a)) # 輸出結果為:-2.0b = np.array([[6,1,1], [4, -2, 5], [2,8,7]])
print (b)
print (np.linalg.det(b))
print (6*(-2*7 - 5*8) - 1*(4*7 - 5*2) + 1*(4*8 - -2*2))輸出結果為:
[[ 6 1 1][ 4 -2 5][ 2 8 7]]
-306.0
-306
numpy.linalg.solve() 方程的解
numpy.linalg.solve() 函數給出了矩陣形式的線性方程的解。比如求解形如 Ax = b 的線性方程組,其中 A 為矩陣,b 為一維或二維的數組,x 是未知變量
import numpy as np# 創建矩陣和數組
B = np.mat("1 -2 1;0 2 -8;-4 5 9")
b = np.array([0,8,-9])# 調用solve函數求解線性方程
x = np.linalg.solve(B,b)
print (x)
# [29. 16. 3.]# 使用dot函數檢查求得的解是否正確
print (np.dot(B , x))
# [[ 0. 8. -9.]]
numpy.linalg.inv()?逆矩陣
numpy.linalg.inv() 函數計算矩陣的乘法逆矩陣。
逆矩陣(inverse matrix):設A是數域上的一個n階矩陣,若在相同數域上存在另一個n階矩陣B,使得: AB=BA=E ,則我們稱B是A的逆矩陣,而A則被稱為可逆矩陣。注:E為單位矩陣。
注:矩陣必須是方陣且可逆,否則會拋出LinAlgError異常
?
import numpy as np
x = np.array([[1,2],[3,4]])
y = np.linalg.inv(x)
print (x)
print (y)
print (np.dot(x,y))輸出結果為:
[[1 2][3 4]]
[[-2. 1. ][ 1.5 -0.5]]
[[1.0000000e+00 0.0000000e+00][8.8817842e-16 1.0000000e+00]]
實例
import numpy as np
a = np.array([[1,1,1],[0,2,5],[2,5,-1]])
print ('數組 a:')
print (a) ainv = np.linalg.inv(a)
print ('a 的逆:')
print (ainv)
print ('矩陣 b:')
b = np.array([[6],[-4],[27]])
print (b)
print ('計算:A^(-1)B:') x = np.linalg.solve(a,b)
print (x) # 這就是線性方向 x = 5, y = 3, z = -2 的解輸出結果為:
數組 a:
[[ 1 1 1][ 0 2 5][ 2 5 -1]]
a 的逆:
[[ 1.28571429 -0.28571429 -0.14285714][-0.47619048 0.14285714 0.23809524][ 0.19047619 0.14285714 -0.0952381 ]]
矩陣 b:
[[ 6][-4][27]]
計算:A^(-1)B:
[[ 5.][ 3.][-2.]]
np.linalg.eig 特征值和特征向量
特征值(eigenvalue)即方程 Ax = ax 的根,是一個標量。特征向量(eigenvector)是關于特征值的向量
numpy.linalg模塊中,eigvals函數可以計算矩陣的特征值,而eig函數可以返回一個包含特征值和對應的特征向量的元組
import numpy as np# 創建一個矩陣
C = np.mat("3 -2;1 0")# 調用eigvals函數求解特征值
c0 = np.linalg.eigvals(C)
print (c0)
# [ 2. 1.]# 使用eig函數求解特征值和特征向量 (該函數將返回一個元組,按列排放著特征值和對應的特征向量,其中第一列為特征值,第二列為特征向量)
c1,c2 = np.linalg.eig(C)
print (c1)
# [ 2. 1.]?
print (c2)
#[[ 0.89442719 0.70710678]
# [ 0.4472136 0.70710678]]# 使用dot函數驗證求得的解是否正確
for i in range(len(c1)):
print ("left:",np.dot(C,c2[:,i]))
print ("right:",c1[i] * c2[:,i])
#left: [[ 1.78885438]
# [ 0.89442719]]
#right: [[ 1.78885438]
# [ 0.89442719]]
#left: [[ 0.70710678]
# [ 0.70710678]]
#right: [[ 0.70710678]
# [ 0.70710678]]
np.linalg.svd 奇異值分解
SVD(Singular Value Decomposition,奇異值分解)是一種因子分解運算,將一個矩陣分解為3個矩陣的乘積
numpy.linalg模塊中的svd函數可以對矩陣進行奇異值分解。該函數返回3個矩陣——U、Sigma和V,其中U和V是正交矩陣,Sigma包含輸入矩陣的奇異值。
import numpy as np# 分解矩陣
D = np.mat("4 11 14;8 7 -2")# 使用svd函數分解矩陣
U,Sigma,V = np.linalg.svd(D,full_matrices=False)
print ("U:",U)
# U: [[-0.9486833 -0.31622777]
# [-0.31622777 0.9486833 ]]print ("Sigma:",Sigma)
# Sigma: [ 18.97366596 9.48683298]print ("V",V)
# V [[-0.33333333 -0.66666667 -0.66666667]
# [ 0.66666667 0.33333333 -0.66666667]]
# 結果包含等式中左右兩端的兩個正交矩陣U和V,以及中間的奇異值矩陣Sigma# 使用diag函數生成完整的奇異值矩陣。將分解出的3個矩陣相乘
print (U * np.diag(Sigma) * V)
#[[ 4. 11. 14.]
# [ 8. 7. -2.]]
np.linalg.pinv 廣義逆矩陣(QR分解)
使用numpy.linalg模塊中的pinv函數進行求解,
注:inv函數只接受方陣作為輸入矩陣,而pinv函數則沒有這個限制
import numpy as np# 創建一個矩陣
E = np.mat("4 11 14;8 7 -2")# 使用pinv函數計算廣義逆矩陣
pseudoinv = np.linalg.pinv(E)
print (pseudoinv)
#[[-0.00555556 0.07222222]
# [ 0.02222222 0.04444444]
# [ 0.05555556 -0.05555556]]# 將原矩陣和得到的廣義逆矩陣相乘
print (E * pseudoinv)
#[[ 1.00000000e+00 -5.55111512e-16]
# [ 0.00000000e+00 1.00000000e+00]]
?