矩陣詳解:線性代數在AI大模型中的核心支柱

在這里插入圖片描述

🧑 博主簡介:CSDN博客專家、CSDN平臺優質創作者,高級開發工程師,數學專業,10年以上C/C++, C#, Java等多種編程語言開發經驗,擁有高級工程師證書;擅長C/C++、C#等開發語言,熟悉Java常用開發技術,能熟練應用常用數據庫SQL server,Oracle,mysql,postgresql等進行開發應用,熟悉DICOM醫學影像及DICOM協議,業余時間自學JavaScript,Vue,qt,python等,具備多種混合語言開發能力。撰寫博客分享知識,致力于幫助編程愛好者共同進步。歡迎關注、交流及合作,提供技術支持與解決方案。
技術合作請加本人wx(注明來自csdn):xt20160813

在這里插入圖片描述

詳解矩陣的概念與應用:線性代數在AI大模型中的核心支柱

人工智能(AI)大模型的成功構建和運行依賴于數學的三大支柱:線性代數、概率統計和微積分。其中,線性代數通過矩陣、向量和線性變換等工具,為數據表示、模型計算和優化提供了基礎。在線性代數中,矩陣是最核心的概念之一,廣泛應用于神經網絡、數據處理和模型優化等AI場景。本文將深入講解矩陣的概念、原理、核心知識點及其在AI大模型中的應用,確保內容準確且易于理解。


一、矩陣的概念與原理

1. 矩陣的定義

矩陣是一個二維數組,用于表示數據的集合或線性變換。數學上,一個 m × n m \times n m×n矩陣表示為:
A = [ a 11 a 12 … a 1 n a 21 a 22 … a 2 n ? ? ? ? a m 1 a m 2 … a m n ] \mathbf{A} = \begin{bmatrix} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{bmatrix} A=??????a11?a21??am1??a12?a22??am2????a1n?a2n??amn????????
其中 a i j a_{ij} aij? 是矩陣的元素, m m m是行數, n n n是列數。矩陣可以看作一組向量的集合,行或列可以分別視為向量。

2. 矩陣的基本性質

  • 維度:矩陣的維度為 m × n m \times n m×n,表示有 m m m 行和 n n n 列。
  • 方陣:當 m = n m = n m=n時,矩陣稱為方陣。
  • 特殊矩陣
    • 單位矩陣:主對角線元素為 1,其余為 0,記為 I \mathbf{I} I
    • 零矩陣:所有元素為 0。
    • 對稱矩陣:滿足 A = A T \mathbf{A} = \mathbf{A}^T A=AT,即 a i j = a j i a_{ij} = a_{ji} aij?=aji?
    • 對角矩陣:除主對角線外元素均為 0。

3. 矩陣的基本運算

矩陣支持以下運算,均遵循線性代數的規則:

  • 加法:兩個相同維度的矩陣 A \mathbf{A} A B \mathbf{B} B 相加,結果為:
    C = A + B , c i j = a i j + b i j \mathbf{C} = \mathbf{A} + \mathbf{B}, \quad c_{ij} = a_{ij} + b_{ij} C=A+B,cij?=aij?+bij?
  • 標量乘法:矩陣 A \mathbf{A} A 與標量 c c c 相乘:
    C = c A , c i j = c ? a i j \mathbf{C} = c\mathbf{A}, \quad c_{ij} = c \cdot a_{ij} C=cA,cij?=c?aij?
  • 矩陣乘法:若 A \mathbf{A} A m × p m \times p m×p B \mathbf{B} B p × n p \times n p×n,則:
    C = A B , c i j = ∑ k = 1 p a i k b k j \mathbf{C} = \mathbf{A}\mathbf{B}, \quad c_{ij} = \sum_{k=1}^p a_{ik}b_{kj} C=AB,cij?=k=1p?aik?bkj?
    矩陣乘法不滿足交換律(即 A B ≠ B A \mathbf{AB} \neq \mathbf{BA} AB?=BA),但滿足結合律和分配律。
  • 轉置:矩陣 A \mathbf{A} A 的轉置 A T \mathbf{A}^T AT將行和列互換, a i j T = a j i a_{ij}^T = a_{ji} aijT?=aji?
  • 逆矩陣:對于方陣 A \mathbf{A} A,若存在矩陣 A ? 1 \mathbf{A}^{-1} A?1 滿足 A A ? 1 = I \mathbf{A}\mathbf{A}^{-1} = \mathbf{I} AA?1=I,則 A ? 1 \mathbf{A}^{-1} A?1 A \mathbf{A} A 的逆矩陣。逆矩陣存在當且僅當 det ? ( A ) ≠ 0 \det(\mathbf{A}) \neq 0 det(A)?=0

4. 矩陣的幾何意義

矩陣可以看作線性變換的表示。例如,矩陣 A \mathbf{A} A將向量 x \mathbf{x} x映射為 y = A x \mathbf{y} = \mathbf{A}\mathbf{x} y=Ax,這種變換可能包括:

  • 旋轉:通過正交矩陣實現。
  • 縮放:通過對角矩陣調整向量長度。
  • 剪切或投影:通過特定矩陣改變向量方向或維度。

二、矩陣的核心知識點

以下是矩陣相關的幾個關鍵知識點,深入剖析其原理和計算方法。

1. 矩陣乘法

原理
矩陣乘法是線性代數中最核心的運算之一,表示多個線性變換的復合。矩陣 A \mathbf{A} A ( m × p ( m \times p (m×p)與矩陣 B \mathbf{B} B p × n p \times n p×n)的乘法要求 A \mathbf{A} A的列數等于 B \mathbf{B} B的行數。結果矩陣 C \mathbf{C} C m × n m \times n m×n)的每個元素 c i j c_{ij} cij? A \mathbf{A} A 的第 i i i行與 B \mathbf{B} B的第 j j j 列的點積。

計算示例
A = [ 1 2 3 4 ] , B = [ 5 6 7 8 ] \mathbf{A} = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix}, \quad \mathbf{B} = \begin{bmatrix} 5 & 6 \\ 7 & 8 \end{bmatrix} A=[13?24?],B=[57?68?]
C = A B = [ 1 ? 5 + 2 ? 7 1 ? 6 + 2 ? 8 3 ? 5 + 4 ? 7 3 ? 6 + 4 ? 8 ] = [ 19 22 43 50 ] \mathbf{C} = \mathbf{A}\mathbf{B} = \begin{bmatrix} 1 \cdot 5 + 2 \cdot 7 & 1 \cdot 6 + 2 \cdot 8 \\ 3 \cdot 5 + 4 \cdot 7 & 3 \cdot 6 + 4 \cdot 8 \end{bmatrix} = \begin{bmatrix} 19 & 22 \\ 43 & 50 \end{bmatrix} C=AB=[1?5+2?73?5+4?7?1?6+2?83?6+4?8?]=[1943?2250?]

Python實現

import numpy as np
A = np.array([[1, 2], [3, 4]])
B = np.array([[5, 6], [7, 8]])
C = np.dot(A, B)
print(C)  # 輸出:[[19, 22], [43, 50]]

2. 行列式

原理
行列式是方陣的標量屬性,記為 det ? ( A ) \det(\mathbf{A}) det(A),表示矩陣的“體積縮放因子”。對于 2×2 矩陣:
A = [ a b c d ] , det ? ( A ) = a d ? b c \mathbf{A} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}, \quad \det(\mathbf{A}) = ad - bc A=[ac?bd?],det(A)=ad?bc
對于更高維矩陣,行列式通過遞歸(拉普拉斯展開)或高斯消元計算。行列式的性質包括:

  • det ? ( A ) = 0 \det(\mathbf{A}) = 0 det(A)=0 表示矩陣不可逆(奇異矩陣)。
  • det ? ( A B ) = det ? ( A ) ? det ? ( B ) \det(\mathbf{AB}) = \det(\mathbf{A}) \cdot \det(\mathbf{B}) det(AB)=det(A)?det(B)

意義
行列式描述線性變換對空間體積的縮放比例,在AI中用于判斷矩陣是否可逆,以及分析數據的線性相關性。

3. 逆矩陣

原理
逆矩陣 A ? 1 \mathbf{A}^{-1} A?1 是方陣 A \mathbf{A} A 的“逆運算”,滿足:
A A ? 1 = A ? 1 A = I \mathbf{A}\mathbf{A}^{-1} = \mathbf{A}^{-1}\mathbf{A} = \mathbf{I} AA?1=A?1A=I
逆矩陣通過高斯-若當消元或伴隨矩陣計算:
A ? 1 = 1 det ? ( A ) ? adj ( A ) \mathbf{A}^{-1} = \frac{1}{\det(\mathbf{A})} \cdot \text{adj}(\mathbf{A}) A?1=det(A)1??adj(A)
其中 adj ( A ) \text{adj}(\mathbf{A}) adj(A) 是伴隨矩陣。逆矩陣存在的條件是 det ? ( A ) ≠ 0 \det(\mathbf{A}) \neq 0 det(A)?=0

Python實現

A = np.array([[4, 7], [2, 6]])
A_inv = np.linalg.inv(A)
print(A_inv)  # 輸出逆矩陣

4. 特征值與特征向量

原理
對于方陣 A \mathbf{A} A,若存在非零向量 v \mathbf{v} v和標量 λ \lambda λ 滿足:
A v = λ v \mathbf{A}\mathbf{v} = \lambda\mathbf{v} Av=λv
v \mathbf{v} v是特征向量, λ \lambda λ是特征值。特征值通過特征方程求解:
det ? ( A ? λ I ) = 0 \det(\mathbf{A} - \lambda\mathbf{I}) = 0 det(A?λI)=0
特征向量則通過解 ( A ? λ I ) v = 0 (\mathbf{A} - \lambda\mathbf{I})\mathbf{v} = 0 (A?λI)v=0 得到。

意義
特征值和特征向量揭示矩陣的內在結構,用于分析線性變換的伸縮方向和比例。

Python實現

A = np.array([[4, 1], [2, 3]])
eigenvalues, eigenvectors = np.linalg.eig(A)
print(eigenvalues)  # 輸出特征值
print(eigenvectors)  # 輸出特征向量

5. 奇異值分解(SVD)

原理
SVD將任意矩陣 A ∈ R m × n \mathbf{A} \in \mathbb{R}^{m \times n} ARm×n 分解為:
A = U Σ V T \mathbf{A} = \mathbf{U}\mathbf{\Sigma}\mathbf{V}^T A=UΣVT
其中:

  • U \mathbf{U} U m × m m \times m m×m)和 V \mathbf{V} V n × n n \times n n×n)是正交矩陣。
  • Σ \mathbf{\Sigma} Σ m × n m \times n m×n)是對角矩陣,包含非負奇異值。

SVD是特征分解的推廣,適用于非方陣,奇異值表示矩陣的“重要性”。

Python實現

A = np.array([[1, 2], [3, 4], [5, 6]])
U, S, Vt = np.linalg.svd(A)
print(S)  # 輸出奇異值

三、矩陣在AI大模型中的應用

矩陣是AI大模型的核心工具,貫穿數據表示、模型計算和優化過程。以下是矩陣在AI中的具體應用場景:

1. 神經網絡的前向傳播

神經網絡的每一層通過矩陣乘法實現線性變換:
h = σ ( W x + b ) \mathbf{h} = \sigma(\mathbf{W}\mathbf{x} + \mathbf{b}) h=σ(Wx+b)

  • x \mathbf{x} x:輸入向量(如圖像像素或詞嵌入)。
  • W \mathbf{W} W:權重矩陣,存儲層的參數。
  • b \mathbf{b} b:偏置向量。
  • σ \sigma σ:非線性激活函數(如ReLU、Sigmoid)。
    矩陣乘法 W x \mathbf{W}\mathbf{x} Wx 是計算的核心,高效實現依賴線性代數庫(如NumPy、PyTorch)。

示例
一個全連接層的計算:

W = np.array([[1, 2], [3, 4]])
x = np.array([0.5, 0.7])
b = np.array([0.1, 0.2])
h = np.dot(W, x) + b
print(h)  # 輸出線性變換結果

2. 數據表示與批處理

AI模型通常處理大規模數據集,數據以矩陣形式組織:

  • 輸入數據矩陣:例如,一個包含 m m m 個樣本、每個樣本 n n n維特征的數據集表示為 m × n m \times n m×n矩陣。
  • 批處理:訓練時,將多個樣本組成批次(如 64 × 784 64 \times 784 64×784 的矩陣表示64個28×28圖像),通過矩陣乘法并行計算:
    Y = W X + b \mathbf{Y} = \mathbf{W}\mathbf{X} + \mathbf{b} Y=WX+b
    其中 X \mathbf{X} X是輸入矩陣, Y \mathbf{Y} Y是輸出矩陣。

3. Transformer與注意力機制

Transformer模型(如BERT、GPT)依賴矩陣運算實現注意力機制:
Attention ( Q , K , V ) = softmax ( Q K T d k ) V \text{Attention}(\mathbf{Q}, \mathbf{K}, \mathbf{V}) = \text{softmax}\left(\frac{\mathbf{Q}\mathbf{K}^T}{\sqrt{d_k}}\right)\mathbf{V} Attention(Q,K,V)=softmax(dk? ?QKT?)V

  • Q , K , V \mathbf{Q}, \mathbf{K}, \mathbf{V} Q,K,V:通過矩陣乘法從輸入向量變換得到的查詢、鍵和值矩陣。
  • Q K T \mathbf{Q}\mathbf{K}^T QKT:計算注意力分數矩陣。
    矩陣運算的高效性直接影響Transformer的性能。

4. 數據預處理與降維

矩陣在數據預處理中用于降維和特征提取:

  • 主成分分析(PCA):通過協方差矩陣的特征分解,找到數據的主方向(特征向量),將高維數據投影到低維空間:
    X reduced = X V k \mathbf{X}_{\text{reduced}} = \mathbf{X}\mathbf{V}_k Xreduced?=XVk?
    其中 V k \mathbf{V}_k Vk?是前 k k k個特征向量組成的矩陣。
  • 奇異值分解(SVD):用于矩陣低秩近似,壓縮數據或提取潛在特征。例如,在推薦系統中,SVD分解用戶-物品矩陣以發現潛在興趣模式。

5. 模型優化

在梯度下降中,矩陣運算用于參數更新:
W ← W ? η ? L ? W \mathbf{W} \leftarrow \mathbf{W} - \eta \frac{\partial L}{\partial \mathbf{W}} WW?η?W?L?
其中 ? L ? W \frac{\partial L}{\partial \mathbf{W}} ?W?L?是損失函數對權重矩陣的梯度,矩陣運算加速了批量梯度計算。


四、矩陣在AI中的實踐建議

  1. 理解矩陣運算:熟練掌握矩陣乘法、轉置和逆矩陣的計算,理解其幾何意義。
  2. 編程實踐:使用Python的NumPy或PyTorch實現矩陣運算,驗證理論。例如,編寫代碼實現神經網絡的前向傳播。
  3. 項目驅動:嘗試AI項目(如圖像分類或推薦系統),體會矩陣在數據處理和模型訓練中的作用。例如,使用SVD壓縮DICOM圖像數據(參考歷史對話中的pydicom處理)。
  4. 參考資源
    • 書籍:《Linear Algebra and Its Applications》(Gilbert Strang)
    • 在線課程:MIT線性代數公開課(18.06)
    • 工具:NumPy、PyTorch、TensorFlow

示例項目
基于歷史對話中的pydicom和矩陣運算,構建一個醫療影像預處理流程:

  • pydicom讀取DICOM文件,提取像素數據為矩陣。
  • 用NumPy進行歸一化和降維(PCA或SVD)。
  • 用Matplotlib可視化處理結果。
import pydicom
import numpy as np
import matplotlib.pyplot as plt# 讀取DICOM文件
ds = pydicom.dcmread("sample.dcm")
pixel_matrix = ds.pixel_array# 歸一化
pixel_matrix = pixel_matrix / np.max(pixel_matrix)# SVD降維
U, S, Vt = np.linalg.svd(pixel_matrix, full_matrices=False)
k = 50  # 保留前50個奇異值
compressed = np.dot(U[:, :k] * S[:k], Vt[:k, :])# 可視化
plt.imshow(compressed, cmap="gray")
plt.title("Compressed DICOM Image")
plt.show()

五、結語

矩陣作為線性代數的核心工具,是AI大模型不可或缺的數學基礎。從神經網絡的前向傳播到Transformer的注意力機制,從數據降維到模型優化,矩陣運算貫穿AI開發的每個環節。通過深入理解矩陣的概念、原理和運算規則,結合Python編程實踐,開發者可以更清晰地掌握AI模型的底層邏輯,設計更高效的算法和系統。無論你是AI初學者還是希望深入研究模型原理的開發者,矩陣都是你通向AI核心的鑰匙。現在就動手,定義一個矩陣,計算它的乘法,開啟線性代數的探索之旅!


本文聚焦矩陣的知識點,結合AI大模型的應用場景,系統講解了其概念、原理和實踐方法,適合希望深入理解AI數學基礎的開發者參考。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/82567.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/82567.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/82567.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

基于51單片機和8X8點陣屏、獨立按鍵的飛行躲閃類小游戲

目錄 系列文章目錄前言一、效果展示二、原理分析三、各模塊代碼1、8X8點陣屏2、獨立按鍵3、定時器04、定時器1 四、主函數總結 系列文章目錄 前言 用的是普中A2開發板。 【單片機】STC89C52RC 【頻率】12T11.0592MHz 【外設】8X8點陣屏、獨立按鍵 效果查看/操作演示&#xff…

區塊鏈可投會議CCF C--APSEC 2025 截止7.13 附錄用率

Conference:32nd Asia-Pacific Software Engineering Conference (APSEC 2025) CCF level:CCF C Categories:軟件工程/系統軟件/程序設計語言 Year:2025 Conference time:December 2-5, 2025 in Macao SAR, China …

pdf圖片導出(Visio\Origin\PPT)

一、Visio 導入pdf格式圖片 1. 設計->大小,適應繪圖。 2. 文件->導出,導出為pdf格式。 上面兩部即可得到只包含圖的部分的pdf格式。 如果出現的有默認白邊,可以通過以下方式設置: 1. 文件->選項->自定義功能區->…

vector的實現

介紹 1. 本質與存儲結構 動態數組實現:vector 本質是動態分配的數組,采用連續內存空間存儲元素,支持下標訪問(如 vec[i]),訪問效率與普通數組一致(時間復雜度 O (1))。動態擴容機制&…

【Linux筆記】防火墻firewall與相關實驗(iptables、firewall-cmd、firewalld)

一、概念 1、防火墻firewall Linux 防火墻用于控制進出系統的網絡流量,保護系統免受未授權訪問。常見的防火墻工具包括 iptables、nftables、UFW 和 firewalld。 防火墻類型 包過濾防火墻:基于網絡層(IP、端口、協議)過濾流量&a…

el-date-picker 前端時間范圍選擇器

控制臺參數&#xff1a; 前端代碼&#xff1a;用數組去接受&#xff0c;同時用 value-format"YYYY-MM-DD" 格式化值為&#xff1a;年月日格式 <!-- 查詢區域 --><transition name"fade"><div class"search" v-show"showSe…

在 macOS 上安裝 jenv 管理 JDK 版本

在 macOS 上安裝 jenv 并管理 JDK 版本 在開發 Java 應用程序時&#xff0c;你可能需要在不同的項目中使用不同版本的 JDK。手動切換 JDK 版本可能會很繁瑣&#xff0c;但幸運的是&#xff0c;有一個工具可以簡化這個過程&#xff1a;jenv。jenv 是一個流行的 Java 版本管理工…

2025年全國青少年信息素養大賽復賽C++集訓(16):吃糖果2(題目及解析)

2025年全國青少年信息素養大賽復賽C集訓&#xff08;16&#xff09;&#xff1a;吃糖果2&#xff08;題目及解析&#xff09; 題目描述 現有n(50 > n > 0)個糖果,每天只能吃2個或者3個&#xff0c;請計算共有多少種不同的吃法吃完糖果。 時間限制&#xff1a;1000 內存…

ARM筆記-嵌入式系統基礎

第一章 嵌入式系統基礎 1.1嵌入式系統簡介 1.1.1嵌入式系統定義 嵌入式系統定義&#xff1a; 嵌入式系統是以應用為中心&#xff0c;以計算機技術為基礎&#xff0c;軟硬件可剪裁&#xff0c;對功能、可靠性、成本、體積、功耗等有嚴格要求的專用計算機系統 ------Any devic…

大語言模型(LLM)入門項目推薦

推薦大語言模型(LLM)的入門項目 TiaoYu-1。 https://github.com/tiaoyu1122/TiaoYu-1 項目優點&#xff1a; 幾乎每一行代碼(一些重復的代碼除外)都添加了注釋&#xff0c;詳細介紹了代碼的作用&#xff0c;方便閱讀與理解。基本上覆蓋了常見 LLM 模型的全部訓練流程&#x…

Linux里more 和 less的區別

在 Linux/Unix 系統中&#xff0c;more 和 less 都是用于分頁查看文本文件的命令&#xff0c;但 less 是 more 的增強版&#xff0c;功能更強大。以下是它們的核心區別和用法對比&#xff1a; 1. 基礎功能對比 特性moreless&#xff08;更強大&#xff09;向前翻頁? 僅支持向…

基于PDF流式渲染的Word文檔在線預覽技術

一、背景介紹 在系統開發中&#xff0c;實現在線文檔預覽與編輯功能是許多項目的核心需求&#xff0c;但在實際的開發過程中&#xff0c;我們經常會面臨以下難點&#xff1a; 1&#xff09;格式兼容性問題&#xff1a;瀏覽器原生不支持解析Word二進制格式&#xff0c;直接渲染會…

ai學習--python部分-1.變量名及命名空間的存儲

初學代碼時總有一個問題困擾我&#xff1a;a 10 # a指向地址0x1234&#xff08;存儲10&#xff09; 變量a的值10存儲在0x1234&#xff0c;那么變量a需要存儲嗎&#xff1f;a又存儲在什么地址呢 目錄 1. ??命名空間的本質?? 2. ??命名空間的內存占用?? 3. ??…

Leetcode 3563. Lexicographically Smallest String After Adjacent Removals

Leetcode 3563. Lexicographically Smallest String After Adjacent Removals 1. 解題思路2. 代碼實現 題目鏈接&#xff1a;3563. Lexicographically Smallest String After Adjacent Removals 1. 解題思路 這次的最后一題同樣沒有自力搞定&#xff0c;簡直了…… 這道題還…

微信小程序之Promise-Promise初始用

我們來嘗試使用Promise。 1、需求&#xff0c;做個抽獎的按鈕&#xff0c; 抽獎規則&#xff1a; 30%的幾率中獎&#xff0c;中獎會提示恭喜恭喜&#xff0c;獎品為10萬 RMB 勞斯萊斯優惠券&#xff0c;沒中獎會提示再接再厲。 2、先搭界面&#xff1a; <view class&qu…

spring-boot-starter-data-redis應用詳解

一、依賴引入與基礎配置 添加依賴 在 pom.xml 中引入 Spring Data Redis 的 Starter 依賴&#xff0c;默認使用 Lettuce 客戶端&#xff1a; <dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-redis<…

全能郵箱全能郵箱:實現郵件管理的自動化!

全能郵箱全能郵箱&#xff1a;實現郵件管理的自動化&#xff01; 全能郵箱全能郵箱的配置教程&#xff1f;如何注冊烽火域名郵箱&#xff1f; 全能郵箱全能郵箱作為一種創新的郵件管理解決方案&#xff0c;正逐漸改變我們處理郵件的方式。蜂郵EDM將圍繞全能郵箱全能郵箱&…

Real2Render2Real:無需動力學仿真或機器人硬件即可擴展機器人數據

25年5月來自UC Berkeley 和 TRI 的論文“Real2Render2Real: Scaling Robot Data Without Dynamics Simulation or Robot Hardware”。 擴展機器人學習需要大量且多樣化的數據集。然而&#xff0c;現行的數據收集范式——人類遙操作——仍然成本高昂&#xff0c;且受到手動操作…

Cadence學習筆記之---PCB的布線與鋪銅

目錄 01 | 引 言 02 | 環境描述 03 | 布 線 04 | 鋪 銅 05 | 總 結 01 | 引 言 在上一篇文章中介紹了Cadence元件放置和布局相關的操作方法和步驟&#xff0c;當完成全部的器件布局后&#xff0c;就可以進行下一步&#xff1b; 本篇文章主要介紹Cadence中布線和鋪銅相關的…

redis-7.4.2 通過 systemd管理,rpmbuild spec文件參考

redis-7 和 redis 5 版本在配置為systemd 方式管理時&#xff0c;配置關于有些許區別&#xff0c;否則會報systemctl status redis 如下錯誤&#xff1a; redis.service: control process exited, codeexited status1 Failed to start Redis persistent key-value database. Un…