PyTorch - Tensor 學習筆記

上層鏈接:PyTorch 學習筆記-CSDN博客

Tensor

初始化Tensor

import torch
import numpy as np# 1、直接從數據創建張量。數據類型是自動推斷的
data = [[1, 2],[3, 4]]
x_data = torch.tensor(data)torch.tensor([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
''' 輸出:
tensor([[2, 1, 4, 3],[1, 2, 3, 4],[4, 3, 2, 1]])
'''# 2、從 NumPy 數組創建張量(反之亦然)
np_array = np.array(data)
x_np = torch.from_numpy(np_array)

3、從另一個張量創建:

# 從另一個張量創建張量,新張量保留參數張量的屬性(形狀、數據類型),除非顯式覆蓋
x_ones = torch.ones_like(x_data) # retains the properties of x_data 保留原有屬性
print(f"Ones Tensor: \n {x_ones} \n")x_rand = torch.rand_like(x_data, dtype=torch.float) # overrides the datatype of x_data 覆蓋原有類型
print(f"Random Tensor: \n {x_rand} \n")

?

4、使用隨機值或常量值:(三個皆是數據類型默認為浮點型(torch.float32)

# 使用隨機值或常量值創建張量:
shape = (2,3,)    # shape是張量維度的元組,確定輸出張量的維數
rand_tensor = torch.rand(shape)    # 元素為 [0, 1) 中的隨機浮點型,
ones_tensor = torch.ones(shape)    # 元素為全 1
zeros_tensor = torch.zeros(shape)  # 元素為全 0print(f"Random Tensor: \n {rand_tensor} \n")
print(f"Ones Tensor: \n {ones_tensor} \n")
print(f"Zeros Tensor: \n {zeros_tensor}")

torch.zeros((2, 3, 4))
''' 輸出:
tensor([[[0., 0., 0., 0.],[0., 0., 0., 0.],[0., 0., 0., 0.]],[[0., 0., 0., 0.],[0., 0., 0., 0.],[0., 0., 0., 0.]]])
'''torch.ones((2, 3, 4))
''' 輸出:
tensor([[[1., 1., 1., 1.],[1., 1., 1., 1.],[1., 1., 1., 1.]],[[1., 1., 1., 1.],[1., 1., 1., 1.],[1., 1., 1., 1.]]])
'''

若想指定生成其他數據類型的張量,可以通過?dtype?參數顯式指定。例如:

# 整數類型
rand_tensor_int = torch.rand((2, 3), dtype=torch.int32)
print(rand_tensor_int.dtype)  # 輸出: torch.int32# 雙精度浮點型
ones_tensor_double = torch.ones((2, 3), dtype=torch.float64)
print(ones_tensor_double.dtype)  # 輸出: torch.float64

?動手學深度學習的內容

x = torch.arange(12) # 創建行向量 x,其包含以0開始的前12個整數,默認創建為整數
# 除非額外指定,新的張量將存儲在內存中,并采用基于CPU的計算。
# 輸出:tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])x.shape # 訪問張量(沿每個軸的長度)的形狀
# 輸出:torch.Size([12])x.numel() # 張量中元素的總數,即形狀的所有元素乘積,可以檢查它的大小(size)。因為這里在處理的是一個向量,所以它的shape與它的size相同
# 輸出:12X = x.reshape(3, 4) # 改變張量的形狀,而不改變其元素數量和元素值。
''' 
把張量x從形狀為(12,)的行向量轉換為形狀為(3,4)的矩陣。 
這個新的張量包含與轉換前相同的值,但是它被看成一個3行4列的矩陣。
重點說明:雖然張量的形狀發生了改變,但其元素值并沒有變。 
注意,通過改變張量的形狀,張量的大小不會改變。
輸出:
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
'''

屬性

Tensor 屬性描述其形狀、數據類型和存儲它們的設備

tensor = torch.rand(3,4)
print(f"Shape of tensor: {tensor.shape}")               # 形狀
print(f"Datatype of tensor: {tensor.dtype}")            # 數據類型
print(f"Device tensor is stored on: {tensor.device}")   # 存儲其的設備

操作(形狀相同的兩個矩陣)

索引切片:(類似 numpy )

tensor = torch.ones(4, 4)
# tensor = torch.tensor([[1, 2, 3, 4],
#                        [5, 6, 7, 8],
#                        [9, 10, 11, 12],
#                        [13, 14, 15, 16]])print(f"First row: {tensor[0]}")
print(f"First column: {tensor[:, 0]}")
print(f"Last column: {tensor[..., -1]}")
tensor[:,1] = 0
print(tensor)

與任何Python數組一樣:第一個元素的索引是0,最后一個元素索引是-1; 可以指定范圍以包含第一個元素和最后一個之前的元素,即。

x = torch.arange(12) # 創建行向量 x,其包含以0開始的前12個整數,默認創建為整數
# 除非額外指定,新的張量將存儲在內存中,并采用基于CPU的計算。
# 輸出:tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])X = x.reshape(3, 4) # 改變張量的形狀,而不改變其元素數量和元素值。
''' 
把張量x從形狀為(12,)的行向量轉換為形狀為(3,4)的矩陣。 
這個新的張量包含與轉換前相同的值,但是它被看成一個3行4列的矩陣。
重點說明:雖然張量的形狀發生了改變,但其元素值并沒有變。 
注意,通過改變張量的形狀,張量的大小不會改變。
輸出:
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
'''X[-1], X[1:3] # [-1]選擇最后一個元素,[1:3]選擇第二個和第三個元素
''' 
(tensor([ 8.,  9., 10., 11.]),tensor([[ 4.,  5.,  6.,  7.],[ 8.,  9., 10., 11.]]))
'''X[1, 2] = 9 # 指定索引第二行第三列,將元素9寫入矩陣
''' 
array([[ 0.,  1.,  2.,  3.],[ 4.,  5.,  9.,  7.],[ 8.,  9., 10., 11.]])
'''# 多個元素賦值相同的值
X[0:2, :] = 12 # [0:2, :]訪問第1行和第2行,其中“:”代表沿軸1(列)的所有元素
''' 
array([[12., 12., 12., 12.],[12., 12., 12., 12.],[ 8.,  9., 10., 11.]])
'''

torch.cat() 拼接張量?(沿給定維度連接一系列張量)。

另請參見?torch.stack, 另一個與 . 略有不同的 Tensor Joining 運算符。torch.cattorch.cat

'''
dim=1 :沿著第 1 維(通常是列)進行拼接
如果 tensor 的形狀是 (a, b),
則沿著第 1 維拼接三次后,結果張量 t1 的形狀將是 (a, b * 3)。
'''
t1 = torch.cat([tensor, tensor, tensor], dim=1) # 沿著第 1 維拼接三次
print(t1)

  • 沿行連結(軸-0,形狀的第一個元素)
  • 按列連結(軸-1,形狀的第二個元素)
X = torch.arange(12, dtype=torch.float32).reshape((3,4))
Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
torch.cat((X, Y), dim=0), torch.cat((X, Y), dim=1)
''' 輸出:
(tensor([[ 0.,  1.,  2.,  3.],[ 4.,  5.,  6.,  7.],[ 8.,  9., 10., 11.],[ 2.,  1.,  4.,  3.],[ 1.,  2.,  3.,  4.],[ 4.,  3.,  2.,  1.]]),tensor([[ 0.,  1.,  2.,  3.,  2.,  1.,  4.,  3.],[ 4.,  5.,  6.,  7.,  1.,  2.,  3.,  4.],[ 8.,  9., 10., 11.,  4.,  3.,  2.,  1.]]))
'''

單個張量 (tensor.sum()求和 & 轉int/float)

.sum() 聚合所有 值轉換為一個值;.item() 將其轉換為 Python 數值使用。

agg = tensor.sum()      # 所有元素求和,返回新的張量(標量張量)
agg_item = agg.item()   # 將標量張量agg轉成Python的基本數據類型(如 float或int,具體取決于張量中數據的類型)
print(agg_item, type(agg_item))# 輸出 agg的值為 tensor(12.)

a = torch.tensor([3.5])
a, a.item(), float(a), int(a)
# (tensor([3.5000]), 3.5, 3.5, 3)

算術運算

矩陣乘法 和 元素積(逐元素乘積)

計算兩張量間的 矩陣乘法 和 元素積(逐元素乘積)

# 計算兩個張量間的矩陣乘法
# This computes the matrix multiplication between two tensors. y1, y2, y3 will have the same value
# ``tensor.T`` 返回張量的轉置 returns the transpose of a tensor
y1 = tensor @ tensor.T          # “@”是矩陣乘法的簡寫,用于張量之間的矩陣乘法; tensor.T 返回 tensor 的轉置
y2 = tensor.matmul(tensor.T)    # matmul用于矩陣乘法,與 @ 功能等價y3 = torch.rand_like(y1)        # 創建與 y1 形狀相同的新張量,元素為隨機值
torch.matmul(tensor, tensor.T, out=y3)  # 進行矩陣乘法,并將結果存儲在 y3 中print("Matrix Multiplication Results:") #  y1, y2, y3 三者相等
print("y1:\n", y1)
print("y2:\n", y2)
print("y3:\n", y3)# 計算元素積 
# This computes the element-wise product. z1, z2, z3 will have the same value
z1 = tensor * tensor    # 對 tensor 進行逐元素相乘
z2 = tensor.mul(tensor) # 與 * 相同的逐元素相乘z3 = torch.rand_like(tensor)
torch.mul(tensor, tensor, out=z3) # 使用 torch.mul 函數對 tensor 進行逐元素相乘,并將結果存儲在 z3 中print("\nElement-wise Product Results:") #  z1, z2, z3 三者相等
print("z1:\n", z1)
print("z2:\n", z2)
print("z3:\n", z3)

按元素操作 (加減乘除 **冪 等)

對于任意具有相同形狀的張量, 常見的標準算術運算符(+-*/**)都可以被升級為按元素運算。 我們可以在同一形狀的任意兩個張量上調用按元素操作。

在下面的例子中,使用逗號來表示一個具有5個元素的元組,其中每個元素都是按元素操作的結果。

x = torch.tensor([1.0, 2, 4, 8])
y = torch.tensor([2, 2, 2, 2])
x + y, x - y, x * y, x / y, x ** y  # **運算符是求冪運算
''' 輸出:
(tensor([ 3.,  4.,  6., 10.]),tensor([-1.,  0.,  2.,  6.]),tensor([ 2.,  4.,  8., 16.]),tensor([0.5000, 1.0000, 2.0000, 4.0000]),tensor([ 1.,  4., 16., 64.]))
'''

邏輯運算符構建二元張量

以X == Y為例: 對于每個位置,如果X和Y在該位置相等,則新張量中相應項的值為1。 這意味著邏輯語句X == Y在該位置處為真,否則該位置為0。

X = torch.arange(12, dtype=torch.float32).reshape((3,4))
Y = torch.tensor([[2.0, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
X == Y
''' 輸出:
tensor([[False,  True, False,  True],[False, False, False, False],[False, False, False, False]])
'''

torch.exp() 對張量中每個元素計算自然指數

“按元素”方式可以應用更多的計算,包括像求冪這樣的一元運算符:

用于對張量中每個元素計算自然指數函數?e^x?的函數,常用于?實現 softmax、log-normalization、指數增長建模?等場景:

對輸入張量中的每個元素?x?執行:

\exp (x)=e^x

其中?e\approx 2.71828?

import torch
x = torch.tensor([1.0, 2, 4, 8])
torch.exp(x)
''' 輸出:
tensor([2.7183e+00, 7.3891e+00, 5.4598e+01, 2.9810e+03])
'''x = torch.tensor([0.0, 1.0, 2.0])
y = torch.exp(x)
print(y)  # 輸出:tensor([1.0000, 2.7183, 7.3891])x = torch.tensor([[0.0, -1.0], [1.0, -2.0]])
print(torch.exp(x))
''' 輸出:
tensor([[1.0000, 0.3679],[2.7183, 0.1353]])
'''

常見應用:Softmax 的實現

x = torch.tensor([1.0, 2.0, 3.0])
softmax = torch.exp(x) / torch.sum(torch.exp(x))
print(softmax)

常見應用:概率建模中的對數概率反變換

log_probs = torch.tensor([-1.0, -2.0])
probs = torch.exp(log_probs)

常見應用:正態化、注意力機制等。

注意

  • 輸入為負數時,輸出仍為正數(因為?e^x>0?對任意實數?x?成立)。
  • 大數值可能導致數值溢出(輸出為?inf),因此常配合數值穩定性處理(如在 softmax 前減去最大值)使用。

使用NumPy橋接

  • 共享內存:Tensor 和 NumPy 數組在?.numpy()?和?torch.from_numpy()?轉換時,會 共享底層內存(共享底層數據存儲),因此對一方的修改會直接影響另一方。
  • 潛在風險:如果對共享內存的張量或數組進行了非原地安全的操作(如直接賦值),可能導致數據競爭或意外覆蓋。

以下例子中 t?和?n?的值始終同步,因為它們共享相同的內存。這種特性在需要高效數據傳遞時非常有用,但需要謹慎操作以避免數據競爭。

Tensor 轉 NumPy 數組

t = torch.ones(5)   # 創建一個包含 5 個 1.0 的張量
print(f"t: {t}")# 將張量 t 轉換為 NumPy 數組
n = t.numpy()       # .numpy() 方法將 PyTorch 張量轉換為 NumPy 數組
print(f"n: {n}")

張量的變化反映在 NumPy 數組中:

t.add_(1)           # 使用 add_ 進行原地加法
print(f"t: {t}")
print(f"n: {n}")    # n 的值也會改變,因為 t 和 n 共享內存

NumPy 數組 轉 Tensor

n = np.ones(5)          # 創建一個包含 5 個 1.0 的 NumPy 數組
t = torch.from_numpy(n) # 將 NumPy 數組轉換為 PyTorch 張量

NumPy 數組中的更改反映在張量中:

np.add(n, 5, out=n)     # 對 NumPy 數組,使用 out 參數 進行原地加法操作
print(f"t: {t}")        # 由于 t 和 n 底層共享內存,t 的值也會隨之改變
print(f"n: {n}")

x = torch.arange(12) # 創建行向量 x,其包含以0開始的前12個整數,默認創建為整數
# 除非額外指定,新的張量將存儲在內存中,并采用基于CPU的計算。
# 輸出:tensor([ 0,  1,  2,  3,  4,  5,  6,  7,  8,  9, 10, 11])X = x.reshape(3, 4) # 改變張量的形狀,而不改變其元素數量和元素值。
''' 
把張量x從形狀為(12,)的行向量轉換為形狀為(3,4)的矩陣。 
這個新的張量包含與轉換前相同的值,但是它被看成一個3行4列的矩陣。
重點說明:雖然張量的形狀發生了改變,但其元素值并沒有變。 
注意,通過改變張量的形狀,張量的大小不會改變。
輸出:
tensor([[ 0,  1,  2,  3],[ 4,  5,  6,  7],[ 8,  9, 10, 11]])
'''A = X.numpy()
B = torch.tensor(A)
type(A), type(B) # 輸出:(numpy.ndarray, torch.Tensor)

廣播機制(形狀不同的兩個矩陣)

在上面的部分中,我們看到了如何在相同形狀的兩個張量上執行按元素操作。 在某些情況下,即使形狀不同,我們仍然可以通過調用?廣播機制(broadcasting mechanism)執行按元素操作。 這種機制的工作方式如下:

  1. 通過適當復制元素來擴展一個或兩個數組,以便在轉換之后,兩個張量具有相同的形狀;

  2. 對生成的數組執行按元素操作。

在大多數情況下,我們將沿著數組中長度為1的軸進行廣播,如下例子:

a = torch.arange(3).reshape((3, 1))
b = torch.arange(2).reshape((1, 2))
a, b
''' 輸出
(tensor([[0],[1],[2]]),tensor([[0, 1]]))
'''

由于ab分別是形狀不同的 3*3 和 1*2 矩陣,若讓它們相加,它們的形狀不匹配。 我們將兩個矩陣廣播為一個更大的3*2 矩陣,如下所示:

# 矩陣a將復制列, 矩陣b將復制行,然后再按元素相加。
a + b
''' 輸出
tensor([[0, 1],[1, 2],[2, 3]])
'''

節省內存

運行一些操作可能會導致為新結果分配內存。

例如,執行?Y?=?X?+?Y,我們將取消引用Y指向的張量,而是指向新分配的內存處的張量。

id() 返回內存中引用對象的確切地址

before = id(Y)
Y = Y + X
id(Y) == before # 輸出:False

如上,運行Y = Y + X后,id(Y) 指向了另一個位置。 這是因為Python首先計算Y + X,為結果分配新的內存,然后使Y指向內存中的這個新位置。

這可能是不可取的,原因有兩個:

  1. 在機器學習中,可能會有數百兆的參數,且在一秒內多次更新所有參數。因此,為避免不必要地分配內存,我們希望原地執行這些參數更新

  2. 若不原地更新,其他引用仍然會指向舊的內存位置,這樣某些代碼可能會無意中引用舊的參數。

執行原地操作 (避免不必要地分配內存)

使用切片表示法將操作的結果分配給先前分配的數組,例如Y[:]?=?<expression>

Z = torch.zeros_like(Y) # 創建 形狀與Y相同的新矩陣Z,zeros_like將元素設全0
print('id(Z):', id(Z))
Z[:] = X + Y
print('id(Z):', id(Z))
'''
id(Z): 140327634811696
id(Z): 140327634811696
'''

若后續計算中沒有重復使用X,也可以使用?X[:]=X+Y?或?X+=Y?來減少操作的內存開銷:

before = id(X)
X += Y
id(X) == before # 輸出:True

In-place 操作

  • add_?是一個 in-place 操作,會直接修改原張量?tensor?的值,而不會創建新的張量。
  • 若不想修改原張量,可使用非 in-place 操作?tensor + 5,這樣會返回一個新的張量,而原張量保持不變。
# 使用 in-place 操作對張量中的每個元素加 5
print(f"{tensor} \n")
tensor.add_(5)  # add_ 是 in-place 操作,會直接修改原張量
print(tensor)

in-place 的優缺點

優點:節省內存。(直接在原張量上操作,避免額外分配內存)

缺點:因為是直接修改原數據,會丟失歷史記錄,因此不鼓勵使用

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/79247.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/79247.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/79247.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

【技術派后端篇】ElasticSearch 實戰指南:環境搭建、API 操作與集成實踐

1 ES介紹及基本概念 ElasticSearch是一個基于Lucene 的分布式、高擴展、高實時的基于RESTful 風格API的搜索與數據分析引擎。 RESTful 風格API的特點&#xff1a; 接受HTTP協議的請求&#xff0c;返回HTTP響應&#xff1b;請求的參數是JSON&#xff0c;返回響應的內容也是JSON…

從標準九九表打印解讀單行表達式的書寫修煉(Python)

解讀單行表達式書寫&#xff0c;了解修習單行捷徑。 筆記模板由python腳本于2025-04-16 23:24:17創建&#xff0c;本篇筆記適合喜歡單行喜好python的coder翻閱。 【學習的細節是歡悅的歷程】 博客的核心價值&#xff1a;在于輸出思考與經驗&#xff0c;而不僅僅是知識的簡單復述…

深入解析布爾注入:原理、實戰與防御

目錄 一、布爾注入的原理與核心邏輯 二、布爾注入的實戰步驟 三、關鍵函數與繞過技巧 四、實戰案例&#xff1a;獲取數據庫名稱 五、防御策略與最佳實踐 六、總結 一、布爾注入的原理與核心邏輯 布爾注入&#xff08;Boolean-Based Blind SQL Injection&#xff09;是一種…

OpenGL學習筆記(幾何著色器、實例化、抗鋸齒)

目錄 幾何著色器爆破物體法向量可視化 實例化&#xff08;偏移量存在uniform中&#xff09;實例化數組&#xff08;偏移量存在頂點屬性中&#xff09;小行星帶 抗鋸齒SSAA&#xff08;Super Sample Anti-aliasing&#xff09;MSAA&#xff08;Multi-Sampling Anti-aliasing&…

idea報錯java: 非法字符: ‘\ufeff‘解決方案

解決方案步驟以及說明 BOM是什么&#xff1f;1. BOM的作用2. 為什么會出現 \ufeff 錯誤&#xff1f;3. 如何解決 \ufeff 問題&#xff1f; 最后重新編譯&#xff0c;即可運行&#xff01;&#xff01;&#xff01; BOM是什么&#xff1f; \ufeff 是 Unicode 中的 BOM&#xff0…

open webui 介紹 是一個可擴展、功能豐富且用戶友好的本地部署 AI 平臺,支持完全離線運行。

AI MCP 系列 AgentGPT-01-入門介紹 Browser-use 是連接你的AI代理與瀏覽器的最簡單方式 AI MCP(大模型上下文)-01-入門介紹 AI MCP(大模型上下文)-02-awesome-mcp-servers 精選的 MCP 服務器 AI MCP(大模型上下文)-03-open webui 介紹 是一個可擴展、功能豐富且用戶友好的…

Log4j2遠程命令執行(CVE-2021-44228)復現

這里選擇使用vulfocue的靶場來進行復現 描述: Apache Log4j2 是一個基于 Java 的日志記錄工具。該工具重寫了 Log4j 框架&#xff0c;并且引入了大量豐富的特性。該日志框架被大量用于業務系統開發&#xff0c;用來記錄日志信息。 在大多數情況下&#xff0c;開發者可能會將用…

模型提示詞

一 提示詞 &#xff08;一&#xff09; 提示詞&#xff08;Prompt&#xff09;是用戶發送給大語言模型的問題、指令或請求&#xff0c;** 1 來明確地告訴模型用戶想要解決的問題或完成的任務&#xff0c;是大語言模型理解用戶需求并據此生成相關、準確回答或內容的基礎。對于…

深度學習算法:從基礎到實踐

簡介 深度學習作為人工智能領域的一個重要分支&#xff0c;近年來在多個領域取得了顯著的成就。本文將從基礎概念出發&#xff0c;探討深度學習算法的核心原理&#xff0c;并介紹一些實際應用案例。 深度學習算法的核心概念 深度學習算法基于人工神經網絡&#xff0c;通過構…

5.9 《GPT-4調試+測試金字塔:構建高可靠系統的5大實戰策略》

5.4 測試與調試:構建企業級質量的保障體系 關鍵詞:測試金字塔模型、GPT-4調試助手、LangChain調試模式、異步任務驗證 測試策略設計(測試金字塔實踐) #mermaid-svg-RblGbJVMnCIShiCW {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill…

Visio繪圖工具全面科普:解鎖專業圖表繪制新境界[特殊字符]

Visio繪圖工具全面科普&#xff1a;解鎖專業圖表繪制新境界&#x1f31f; 在信息爆炸的時代&#xff0c;清晰、直觀地呈現復雜信息變得至關重要。無論是繪制流程圖&#x1f4ca;、組織結構圖&#x1f465;&#xff0c;還是規劃網絡拓撲&#x1f5a7;&#xff0c;一款強大的繪圖…

ShellScript腳本編程

語法基礎 腳本結構 我們先從這個小demo程序來窺探一下我們shell腳本的程序結構 #!/bin/bash# 注釋信息echo_str"hello world"test(){echo $echo_str }test echo_str 首先我們可以通過文本編輯器(在這里我們使用linux自帶文本編輯神器vim)&#xff0c;新建一個文件…

你了解哪些Java限流算法?

大家好&#xff0c;我是鋒哥。今天分享關于【你了解哪些Java限流算法?】面試題。希望對大家有幫助&#xff1b; 你了解哪些Java限流算法? 1000道 互聯網大廠Java工程師 精選面試題-Java資源分享網 在 Java 中&#xff0c;限流算法廣泛用于控制流量、避免過載和保護系統的穩…

prime-2 靶場筆記(vuInhub靶場)

前言&#xff1a; 在本次靶場環境中涉及的知識點&#xff0c;主要包含LFI和SMB以及Lxd組提權&#xff0c;具體內容包括主機探測、端口掃描、目錄掃描、wpscan掃描、反彈shell、一句話木馬、容器、linux各種提權和維持。 環境介紹&#xff1a; 本靶場使用了kali&#xff08;192…

SparseDrive---論文閱讀

純視覺下的稀疏場景表示 算法動機&開創性思路 算法動機&#xff1a; 依賴于計算成本高昂的鳥瞰圖&#xff08;BEV&#xff09;特征表示。預測和規劃的設計過于直接&#xff0c;沒有充分利用周圍代理和自我車輛之間的高階和雙向交互。場景信息是在agent周圍提取&#xff…

旅游特種兵迪士尼大作戰:DeepSeek高精準路徑優化

DeepSeek大模型高性能核心技術與多模態融合開發 - 商品搜索 - 京東 隨著假期的腳步日漸臨近&#xff0c;環球影城等備受矚目的主題游樂場&#xff0c;已然成為大人與孩子們心中不可或缺的節日狂歡圣地。然而&#xff0c;隨之而來的龐大客流&#xff0c;卻總讓無數游客在歡樂的…

android rtsp 拉流h264 h265,解碼nv12轉碼nv21耗時卡頓問題及ffmpeg優化

一、 背景介紹及問題概述 項目需求需要在rk3568開發板上面&#xff0c;通過rtsp協議拉流的形式獲取攝像頭預覽&#xff0c;然后進行人臉識別 姿態識別等后續其它操作。由于rtsp協議一般使用h.264 h265視頻編碼格式&#xff08;也叫 AVC 和 HEVC&#xff09;是不能直接用于后續處…

運維面試題(十四)

6.將日志從一臺服務器保存到另一臺服務器中的方法 1.使用 rsync 同步日志文件 2.使用 scp 手動或腳本化傳輸 3.配置日志服務&#xff08;如 syslog 或 rsyslog &#xff09;遠程傳輸 ? 4.編寫腳本定時上傳&#xff1a;結合 cron 定時任務和傳輸工具&#xff0c;編…

永磁同步電機控制中,滑模觀測器是基于反電動勢觀測轉子速度和角度的?擴展卡爾曼濾波觀測器是基于什么觀測的?擴展卡爾曼濾波觀測器也是基于反電動勢嗎?

滑模觀測器在PMSM中的應用&#xff1a; 滑模觀測器是一種非線性觀測器&#xff0c;利用切換函數設計&#xff0c;使得狀態估計誤差迅速趨近于零&#xff0c;實現快速響應和對外部干擾的魯棒性。 在永磁同步電機&#xff08;PMSM&#xff09;無傳感器控制中&#xff0c;滑模觀測…

【前端】Vue一本通 ESLint JSX

近幾天更新完畢&#xff0c;不定期持續更新&#xff0c;建議關注收藏點贊。 目錄 工具推薦vscode插件vue-devtoolsESLint JSX語法擴展簡介設計模式快速入門 vue/cli腳手架使用vue指令 工具推薦 工欲善其事&#xff0c;必先利其器。 vscode插件 Vetur&#xff1a;vue代碼高亮…