協方差相關問題

為什么無偏估計用 ( n ? 1 ) (n-1) (n?1) 而不是 n n n,區別是什么?

在統計學中,無偏估計是指估計量的期望值等于總體參數的真實值。當我們用樣本數據估計總體方差或協方差時,分母使用 ( n ? 1 ) (n-1) (n?1) 而不是 n n n 是為了確保估計是無偏的。

1. 總體方差與樣本方差

總體方差 σ 2 \sigma^2 σ2 定義為:
σ 2 = 1 n ∑ i = 1 n ( x i ? μ ) 2 \sigma^2 = \frac{1}{n} \sum_{i=1}^{n} (x_i - \mu)^2 σ2=n1?i=1n?(xi??μ)2

其中 n n n 是總體數據點數, μ \mu μ 是總體均值。

樣本方差的直觀定義可能是:
s n 2 = 1 n ∑ i = 1 n ( x i ? x ˉ ) 2 s_n^2 = \frac{1}{n} \sum_{i=1}^{n} (x_i - \bar{x})^2 sn2?=n1?i=1n?(xi??xˉ)2

但這個估計是有偏的。為了得到無偏估計,我們使用:
s n ? 1 2 = 1 n ? 1 ∑ i = 1 n ( x i ? x ˉ ) 2 s_{n-1}^2 = \frac{1}{n-1} \sum_{i=1}^{n} (x_i - \bar{x})^2 sn?12?=n?11?i=1n?(xi??xˉ)2

2. 為什么用 ( n ? 1 ) (n-1) (n?1) 實現無偏估計?

直觀解釋

  • 樣本均值的"過擬合" x ˉ \bar{x} xˉ 是從樣本計算得到的,不是固定的總體均值 μ \mu μ。這使得樣本數據點相對于 x ˉ \bar{x} xˉ 的偏差比相對于 μ \mu μ 的偏差小。
  • 自由度損失:計算 x ˉ \bar{x} xˉ 時已用掉一個自由度(因為 ∑ ( x i ? x ˉ ) = 0 \sum (x_i - \bar{x}) = 0 (xi??xˉ)=0),所以剩余的獨立信息只有 ( n ? 1 ) (n-1) (n?1) 個自由度。

數學證明

關鍵證明是樣本方差總和的期望值:
E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = ( n ? 1 ) σ 2 E\left[ \sum_{i=1}^{n} (x_i - \bar{x})^2 \right] = (n-1) \sigma^2 E[i=1n?(xi??xˉ)2]=(n?1)σ2

  • 若分母用 n n n
    E [ s n 2 ] = E [ 1 n ∑ i = 1 n ( x i ? x ˉ ) 2 ] = n ? 1 n σ 2 < σ 2 E[s_n^2] = E\left[ \frac{1}{n} \sum_{i=1}^{n} (x_i - \bar{x})^2 \right] = \frac{n-1}{n} \sigma^2 < \sigma^2 E[sn2?]=E[n1?i=1n?(xi??xˉ)2]=nn?1?σ2<σ2

  • 若分母用 ( n ? 1 ) (n-1) (n?1)
    E [ s n ? 1 2 ] = E [ 1 n ? 1 ∑ i = 1 n ( x i ? x ˉ ) 2 ] = 1 n ? 1 ? ( n ? 1 ) σ 2 = σ 2 E[s_{n-1}^2] = E\left[ \frac{1}{n-1} \sum_{i=1}^{n} (x_i - \bar{x})^2 \right] = \frac{1}{n-1} \cdot (n-1) \sigma^2 = \sigma^2 E[sn?12?]=E[n?11?i=1n?(xi??xˉ)2]=n?11??(n?1)σ2=σ2

3. 用 ( n ? 1 ) (n-1) (n?1) n n n 的區別

方面分母用 ( n ? 1 ) (n-1) (n?1)分母用 n n n
估計性質無偏估計, E [ s n ? 1 2 ] = σ 2 E[s_{n-1}^2] = \sigma^2 E[sn?12?]=σ2有偏估計, E [ s n 2 ] = n ? 1 n σ 2 E[s_n^2] = \frac{n-1}{n} \sigma^2 E[sn2?]=nn?1?σ2
數值大小結果稍大(因為分母更小)結果稍小(因為分母更大)
適用場景統計推斷,估計總體參數最大似然估計或描述樣本特性
樣本大小影響小樣本時差異明顯,大樣本時差異趨近于零同左,但偏差始終存在
  • 在小樣本情況下,差異更顯著(例如 n = 5 n=5 n=5 時,有偏估計為 4 5 σ 2 \frac{4}{5}\sigma^2 54?σ2
  • 在大樣本情況下(如 n = 1000 n=1000 n=1000),差異很小,但理論上仍以 ( n ? 1 ) (n-1) (n?1) 為標準

好的,我來更新第4部分的內容,用更詳細的推導過程替代之前的版本。

4. 期望 E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = ( n ? 1 ) σ 2 E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = (n-1)\sigma^2 E[i=1n?(xi??xˉ)2]=(n?1)σ2 的詳細推導

假設條件

為了推導這個期望,我們需要明確以下假設:

  • x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1?,x2?,,xn? 是從均值為 μ \mu μ、方差為 σ 2 \sigma^2 σ2 的總體中抽取的**獨立同分布(i.i.d.)**隨機變量。
  • 樣本均值定義為: x ˉ = 1 n ∑ i = 1 n x i \bar{x} = \frac{1}{n} \sum_{i=1}^n x_i xˉ=n1?i=1n?xi?

步驟 1:表達式變換

直接計算 E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] E[i=1n?(xi??xˉ)2] 較為復雜,因為 x ˉ \bar{x} xˉ 本身是隨機變量。我們可以利用一個恒等式將表達式改寫為更容易處理的形式。

考慮 x i ? x ˉ x_i - \bar{x} xi??xˉ 的定義:
x i ? x ˉ = ( x i ? μ ) ? ( x ˉ ? μ ) x_i - \bar{x} = (x_i - \mu) - (\bar{x} - \mu) xi??xˉ=(xi??μ)?(xˉ?μ)

這里我們引入了總體均值 μ \mu μ,將偏差分解為兩部分:樣本值與總體均值的偏差 ( x i ? μ ) (x_i - \mu) (xi??μ) 和樣本均值與總體均值的偏差 ( x ˉ ? μ ) (\bar{x} - \mu) (xˉ?μ)

將這個表達式平方并求和:
∑ i = 1 n ( x i ? x ˉ ) 2 = ∑ i = 1 n [ ( x i ? μ ) ? ( x ˉ ? μ ) ] 2 \sum_{i=1}^n (x_i - \bar{x})^2 = \sum_{i=1}^n \left[ (x_i - \mu) - (\bar{x} - \mu) \right]^2 i=1n?(xi??xˉ)2=i=1n?[(xi??μ)?(xˉ?μ)]2

展開平方:
( x i ? x ˉ ) 2 = ( x i ? μ ) 2 ? 2 ( x i ? μ ) ( x ˉ ? μ ) + ( x ˉ ? μ ) 2 (x_i - \bar{x})^2 = (x_i - \mu)^2 - 2 (x_i - \mu)(\bar{x} - \mu) + (\bar{x} - \mu)^2 (xi??xˉ)2=(xi??μ)2?2(xi??μ)(xˉ?μ)+(xˉ?μ)2

對所有 i i i 求和:
∑ i = 1 n ( x i ? x ˉ ) 2 = ∑ i = 1 n ( x i ? μ ) 2 ? 2 ∑ i = 1 n ( x i ? μ ) ( x ˉ ? μ ) + ∑ i = 1 n ( x ˉ ? μ ) 2 \sum_{i=1}^n (x_i - \bar{x})^2 = \sum_{i=1}^n (x_i - \mu)^2 - 2 \sum_{i=1}^n (x_i - \mu)(\bar{x} - \mu) + \sum_{i=1}^n (\bar{x} - \mu)^2 i=1n?(xi??xˉ)2=i=1n?(xi??μ)2?2i=1n?(xi??μ)(xˉ?μ)+i=1n?(xˉ?μ)2

簡化最后一項,因為 ( x ˉ ? μ ) 2 (\bar{x} - \mu)^2 (xˉ?μ)2 不依賴于 i i i
∑ i = 1 n ( x ˉ ? μ ) 2 = n ( x ˉ ? μ ) 2 \sum_{i=1}^n (\bar{x} - \mu)^2 = n (\bar{x} - \mu)^2 i=1n?(xˉ?μ)2=n(xˉ?μ)2

接下來處理中間項 ∑ i = 1 n ( x i ? μ ) ( x ˉ ? μ ) \sum_{i=1}^n (x_i - \mu)(\bar{x} - \mu) i=1n?(xi??μ)(xˉ?μ)
x ˉ = 1 n ∑ i = 1 n x i \bar{x} = \frac{1}{n} \sum_{i=1}^n x_i xˉ=n1?i=1n?xi?
所以:
x ˉ ? μ = 1 n ∑ i = 1 n ( x i ? μ ) \bar{x} - \mu = \frac{1}{n} \sum_{i=1}^n (x_i - \mu) xˉ?μ=n1?i=1n?(xi??μ)

代入:
∑ i = 1 n ( x i ? μ ) ( x ˉ ? μ ) = ∑ i = 1 n ( x i ? μ ) ? 1 n ∑ j = 1 n ( x j ? μ ) \sum_{i=1}^n (x_i - \mu)(\bar{x} - \mu) = \sum_{i=1}^n (x_i - \mu) \cdot \frac{1}{n} \sum_{j=1}^n (x_j - \mu) i=1n?(xi??μ)(xˉ?μ)=i=1n?(xi??μ)?n1?j=1n?(xj??μ)

因為 ∑ j = 1 n ( x j ? μ ) \sum_{j=1}^n (x_j - \mu) j=1n?(xj??μ) 不依賴于 i i i,可以提出:
∑ i = 1 n ( x i ? μ ) ( x ˉ ? μ ) = 1 n ∑ i = 1 n ( x i ? μ ) ? ∑ j = 1 n ( x j ? μ ) = 1 n [ ∑ i = 1 n ( x i ? μ ) ] 2 \sum_{i=1}^n (x_i - \mu)(\bar{x} - \mu) = \frac{1}{n} \sum_{i=1}^n (x_i - \mu) \cdot \sum_{j=1}^n (x_j - \mu) = \frac{1}{n} \left[ \sum_{i=1}^n (x_i - \mu) \right]^2 i=1n?(xi??μ)(xˉ?μ)=n1?i=1n?(xi??μ)?j=1n?(xj??μ)=n1?[i=1n?(xi??μ)]2

注意到:
∑ i = 1 n ( x i ? μ ) = n ( x ˉ ? μ ) \sum_{i=1}^n (x_i - \mu) = n (\bar{x} - \mu) i=1n?(xi??μ)=n(xˉ?μ)

所以:
∑ i = 1 n ( x i ? μ ) ( x ˉ ? μ ) = 1 n [ n ( x ˉ ? μ ) ] 2 = n ( x ˉ ? μ ) 2 \sum_{i=1}^n (x_i - \mu)(\bar{x} - \mu) = \frac{1}{n} \left[ n (\bar{x} - \mu) \right]^2 = n (\bar{x} - \mu)^2 i=1n?(xi??μ)(xˉ?μ)=n1?[n(xˉ?μ)]2=n(xˉ?μ)2

將這些結果代回原式:
∑ i = 1 n ( x i ? x ˉ ) 2 = ∑ i = 1 n ( x i ? μ ) 2 ? 2 n ( x ˉ ? μ ) 2 + n ( x ˉ ? μ ) 2 \sum_{i=1}^n (x_i - \bar{x})^2 = \sum_{i=1}^n (x_i - \mu)^2 - 2 n (\bar{x} - \mu)^2 + n (\bar{x} - \mu)^2 i=1n?(xi??xˉ)2=i=1n?(xi??μ)2?2n(xˉ?μ)2+n(xˉ?μ)2
= ∑ i = 1 n ( x i ? μ ) 2 ? n ( x ˉ ? μ ) 2 = \sum_{i=1}^n (x_i - \mu)^2 - n (\bar{x} - \mu)^2 =i=1n?(xi??μ)2?n(xˉ?μ)2

我們得到了一個關鍵恒等式:
∑ i = 1 n ( x i ? x ˉ ) 2 = ∑ i = 1 n ( x i ? μ ) 2 ? n ( x ˉ ? μ ) 2 \sum_{i=1}^n (x_i - \bar{x})^2 = \sum_{i=1}^n (x_i - \mu)^2 - n (\bar{x} - \mu)^2 i=1n?(xi??xˉ)2=i=1n?(xi??μ)2?n(xˉ?μ)2

步驟 2:計算期望

現在,對這個表達式取期望:
E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = E [ ∑ i = 1 n ( x i ? μ ) 2 ? n ( x ˉ ? μ ) 2 ] E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = E\left[ \sum_{i=1}^n (x_i - \mu)^2 - n (\bar{x} - \mu)^2 \right] E[i=1n?(xi??xˉ)2]=E[i=1n?(xi??μ)2?n(xˉ?μ)2]

由于期望是線性的,可以分開計算:
E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = E [ ∑ i = 1 n ( x i ? μ ) 2 ] ? E [ n ( x ˉ ? μ ) 2 ] E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = E\left[ \sum_{i=1}^n (x_i - \mu)^2 \right] - E\left[ n (\bar{x} - \mu)^2 \right] E[i=1n?(xi??xˉ)2]=E[i=1n?(xi??μ)2]?E[n(xˉ?μ)2]

第一項: E [ ∑ i = 1 n ( x i ? μ ) 2 ] E\left[ \sum_{i=1}^n (x_i - \mu)^2 \right] E[i=1n?(xi??μ)2]

因為 x i x_i xi? 是 i.i.d. 的,且 E [ ( x i ? μ ) 2 ] = Var ( x i ) = σ 2 E[(x_i - \mu)^2] = \text{Var}(x_i) = \sigma^2 E[(xi??μ)2]=Var(xi?)=σ2
E [ ∑ i = 1 n ( x i ? μ ) 2 ] = ∑ i = 1 n E [ ( x i ? μ ) 2 ] = ∑ i = 1 n σ 2 = n σ 2 E\left[ \sum_{i=1}^n (x_i - \mu)^2 \right] = \sum_{i=1}^n E[(x_i - \mu)^2] = \sum_{i=1}^n \sigma^2 = n \sigma^2 E[i=1n?(xi??μ)2]=i=1n?E[(xi??μ)2]=i=1n?σ2=nσ2

第二項: E [ n ( x ˉ ? μ ) 2 ] E\left[ n (\bar{x} - \mu)^2 \right] E[n(xˉ?μ)2]

首先計算 x ˉ \bar{x} xˉ 的方差:
x ˉ = 1 n ∑ i = 1 n x i \bar{x} = \frac{1}{n} \sum_{i=1}^n x_i xˉ=n1?i=1n?xi?

由于 x i x_i xi? 是獨立的:
Var ( x ˉ ) = Var ( 1 n ∑ i = 1 n x i ) = 1 n 2 ∑ i = 1 n Var ( x i ) = 1 n 2 ? n σ 2 = σ 2 n \text{Var}(\bar{x}) = \text{Var}\left( \frac{1}{n} \sum_{i=1}^n x_i \right) = \frac{1}{n^2} \sum_{i=1}^n \text{Var}(x_i) = \frac{1}{n^2} \cdot n \sigma^2 = \frac{\sigma^2}{n} Var(xˉ)=Var(n1?i=1n?xi?)=n21?i=1n?Var(xi?)=n21??nσ2=nσ2?

因為 E [ x ˉ ] = μ E[\bar{x}] = \mu E[xˉ]=μ(樣本均值無偏),所以:
E [ ( x ˉ ? μ ) 2 ] = Var ( x ˉ ) = σ 2 n E[(\bar{x} - \mu)^2] = \text{Var}(\bar{x}) = \frac{\sigma^2}{n} E[(xˉ?μ)2]=Var(xˉ)=nσ2?

因此:
E [ n ( x ˉ ? μ ) 2 ] = n ? E [ ( x ˉ ? μ ) 2 ] = n ? σ 2 n = σ 2 E\left[ n (\bar{x} - \mu)^2 \right] = n \cdot E[(\bar{x} - \mu)^2] = n \cdot \frac{\sigma^2}{n} = \sigma^2 E[n(xˉ?μ)2]=n?E[(xˉ?μ)2]=n?nσ2?=σ2

合并結果

E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = n σ 2 ? σ 2 = ( n ? 1 ) σ 2 E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = n \sigma^2 - \sigma^2 = (n - 1) \sigma^2 E[i=1n?(xi??xˉ)2]=nσ2?σ2=(n?1)σ2

步驟 3:驗證與意義

我們得到了:
E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = ( n ? 1 ) σ 2 E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = (n - 1) \sigma^2 E[i=1n?(xi??xˉ)2]=(n?1)σ2

這表明, ∑ i = 1 n ( x i ? x ˉ ) 2 \sum_{i=1}^n (x_i - \bar{x})^2 i=1n?(xi??xˉ)2 的期望值是 ( n ? 1 ) σ 2 (n-1) \sigma^2 (n?1)σ2。在統計學中,樣本方差定義為:
s 2 = 1 n ? 1 ∑ i = 1 n ( x i ? x ˉ ) 2 s^2 = \frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2 s2=n?11?i=1n?(xi??xˉ)2

其期望為:
E [ s 2 ] = 1 n ? 1 E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = 1 n ? 1 ? ( n ? 1 ) σ 2 = σ 2 E[s^2] = \frac{1}{n-1} E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = \frac{1}{n-1} \cdot (n-1) \sigma^2 = \sigma^2 E[s2]=n?11?E[i=1n?(xi??xˉ)2]=n?11??(n?1)σ2=σ2

這說明 s 2 s^2 s2 是總體方差 σ 2 \sigma^2 σ2 的無偏估計。

如果用 n n n 作為分母:
E [ 1 n ∑ i = 1 n ( x i ? x ˉ ) 2 ] = 1 n ? ( n ? 1 ) σ 2 = n ? 1 n σ 2 < σ 2 E\left[ \frac{1}{n} \sum_{i=1}^n (x_i - \bar{x})^2 \right] = \frac{1}{n} \cdot (n-1) \sigma^2 = \frac{n-1}{n} \sigma^2 < \sigma^2 E[n1?i=1n?(xi??xˉ)2]=n1??(n?1)σ2=nn?1?σ2<σ2

這表明分母用 n n n 會低估總體方差。

總結

通過將 ∑ i = 1 n ( x i ? x ˉ ) 2 \sum_{i=1}^n (x_i - \bar{x})^2 i=1n?(xi??xˉ)2 展開為 ∑ i = 1 n ( x i ? μ ) 2 ? n ( x ˉ ? μ ) 2 \sum_{i=1}^n (x_i - \mu)^2 - n (\bar{x} - \mu)^2 i=1n?(xi??μ)2?n(xˉ?μ)2,并分別計算兩項的期望,我們推導出:
E [ ∑ i = 1 n ( x i ? x ˉ ) 2 ] = ( n ? 1 ) σ 2 E\left[ \sum_{i=1}^n (x_i - \bar{x})^2 \right] = (n - 1) \sigma^2 E[i=1n?(xi??xˉ)2]=(n?1)σ2

  • ∑ i = 1 n ( x i ? μ ) 2 \sum_{i=1}^n (x_i - \mu)^2 i=1n?(xi??μ)2 的期望是 n σ 2 n \sigma^2 nσ2,表示總體偏差。
  • n ( x ˉ ? μ ) 2 n (\bar{x} - \mu)^2 n(xˉ?μ)2 的期望是 σ 2 \sigma^2 σ2,反映樣本均值的波動。
  • 兩者的差值 ( n ? 1 ) σ 2 (n-1) \sigma^2 (n?1)σ2 解釋了為什么樣本方差的分母用 n ? 1 n-1 n?1 是無偏的。

5. 數據中心化的原理

數據中心化是將每個數據點減去均值的過程:

數學表示

  • 原始數據: x 1 , x 2 , . . . , x n x_1, x_2, ..., x_n x1?,x2?,...,xn?
  • 均值: μ = 1 n ∑ i = 1 n x i \mu = \frac{1}{n}\sum_{i=1}^n x_i μ=n1?i=1n?xi?
  • 中心化數據: x i ′ = x i ? μ x'_i = x_i - \mu xi?=xi??μ

幾何意義

  • 將數據集平移,使中心點位于坐標原點
  • 數據分布形狀不變,僅位置發生移動
  • 數據點之間的相對關系保持不變

優點

  • 消除數據的整體偏移
  • 提高數值計算的穩定性
  • 加快模型收斂速度
  • 使不同特征處于相似的尺度范圍

示例

對于數據 [2, 4, 6, 8]:

  • 均值 μ = 5 \mu = 5 μ=5
  • 中心化后:[-3, -1, 1, 3]

數據中心化是統計分析和機器學習中的重要預處理步驟,有助于我們關注數據的相對變化而非絕對位置。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/bicheng/75999.shtml
繁體地址,請注明出處:http://hk.pswp.cn/bicheng/75999.shtml
英文地址,請注明出處:http://en.pswp.cn/bicheng/75999.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

算法設計學習6

實驗目的及要求&#xff1a; 目標是使學生學會分析數據對象的特點&#xff0c;掌握數據組織的方法和在計算機中的存儲方式&#xff0c;能夠對具體問題中所涉及的數據選擇合適的邏輯結構、存儲結構&#xff0c;進而在此基礎上&#xff0c;對各種具體操作設計高效的算法&#xff…

Java 三大特性—多態

目錄 1、多態的概念2、多態的條件3、向上轉型3.1 概念3.2 使用場景 4、向下轉型5、多態的優缺點 1、多態的概念 多態&#xff0c;通俗來講就是多種形態&#xff0c;即對于同樣的行為&#xff0c;不同的對象去完成會產生不同的狀態。比如動物都會吃東西&#xff0c;小狗和小貓都…

Ubuntu 24.04 LTS系統安裝RTX 4090顯卡驅動和cuda并部署ollama下載DeepSeek模型【自用詳細版】

自己搗鼓玩玩哈&#xff0c;正好有機子 1. 安裝驅動前的系統配置工作 卸載原有驅動并禁用nouveau sudo apt remove --purge nvidia*sudo cp /etc/modprobe.d/blacklist.conf /etc/modprobe.d/blacklist.conf.backup //備份文件sudo vim /etc/modprobe.d/blacklist.conf //修…

【一篇搞定配置】一篇帶你從配置到使用(PyCharm遠程)完成服務器運行項目(配置、使用一條龍)【全網最詳細版】

&#x1f308; 個人主頁&#xff1a;十二月的貓-CSDN博客 &#x1f525; 系列專欄&#xff1a; &#x1f3c0;各種軟件安裝與配置_十二月的貓的博客-CSDN博客 &#x1f4aa;&#x1f3fb; 十二月的寒冬阻擋不了春天的腳步&#xff0c;十二點的黑夜遮蔽不住黎明的曙光 目錄 1.…

Mamba模型

為什么要提出mamba模型&#xff1f; transformer特點&#xff1a;訓練快&#xff0c;推理慢&#xff0c;計算成本O&#xff08;n*n&#xff09; Rnn的特點&#xff1a;訓練慢&#xff0c;推理快&#xff0c;容易遺忘 其實很容易理解&#xff0c;因為RNN的輸入只包含前一個隱…

如何在 Windows 11 上查找計算機的 IP 地址?

原文&#xff1a;如何在 Windows 11 上查找計算機的 IP 地址&#xff1f; | w3cschool筆記 在開始之前&#xff0c;我們先來了解一下什么是 IP 地址&#xff1a; 假設你住在一棟公寓樓里&#xff0c;快遞員需要把包裹送到你家。為了確保快遞能準確送到&#xff0c;你需要提供…

2.Spring-注解開發定義bean/純注解開發/Spring整合MyBatis(p21-p30)

&#xff08;一&#xff09;注解開發定義bean &#xff08;二&#xff09;純注解開發 &#xff08;三&#xff09;bean的作用范圍 &#xff08;三&#xff09;xml配置和注解配置 &#xff08;四&#xff09;Spring整合MyBatis 要在pom.xml定義一下坐標。org.spr…

解決:Fontconfig head is null, check your fonts or fonts configurat

文章目錄 問題解決方案安裝字體依賴包強制刷新字體緩存驗證是否生效 個人簡介 問題 在使用 Java 環境部署或運行圖形相關應用時&#xff0c;比如圖片驗證碼&#xff0c;偶爾會遇到如下報錯&#xff1a; Fontconfig head is null, check your fonts or fonts configurat意味當…

『不廢話』之Llama 4實測小報

2025年4月5日Llama 4一開源&#xff0c;隨后OpenRouter等平臺就提供免費調用。對于中文社區來&#xff0c;官方的測評結果其實意義不大&#xff08;原因先按下不表&#xff09;&#xff0c;就看知乎、微博、B站、twitter上的真實感受&#xff0c;最重要的是自己的真實案例測評。…

【NLP 56、實踐 ? LoRA完成NER任務】

目錄 一、數據文件 二、模型配置文件 config.py 三、數據加載文件 loader.py 1.導入文件和類的定義 2.初始化 3.數據加載方法 代碼運行流程 4.文本編碼 / 解碼方法    ① encode_sentence()&#xff1a; ② decode()&#xff1a; 代碼運行流程 ③ padding()&#xff1a; 代碼…

八大排序——c++版

本次排序都是按照升序排的 冒泡排序 void bubbleSort(vector<int>& nums) {int nnums.size();for(int i0;i<n-1;i){bool swappedfalse;for(int j0;j<n-1-i;j){if(nums[j]>nums[j1]){swap(nums[j],nums[j1]);swappedtrue;}}if(!swapped)break;} } //算法原…

mlir-tblgen 的應用漸進式示例

示例01 -gen-dialect-decls toy_dia.1.toy include "mlir/IR/OpBase.td" //include "mlir/IR/FunctionInterfaces.td" //include "mlir/IR/SymbolInterfaces.td" //include "mlir/Interfaces/SideEffectInterfaces.td"def Toy_Diale…

Go語言從零構建SQL數據庫(5)-Pratt解析算法:SQL表達式解析的核心引擎

Pratt解析算法&#xff1a;SQL表達式解析的核心引擎 1. 算法概述與工作原理 Pratt解析算法&#xff08;自頂向下運算符優先級解析&#xff09;是一種優雅的表達式解析方法&#xff0c;特別適合處理具有不同優先級運算符的復雜表達式。在我們的SQL解析器中&#xff0c;它負責解…

spring-ai-openai調用Xinference1.4.1報錯

1、Xinference 報錯logs 此處是調用 /v1/chat/completions 接口 2025-04-06 15:48:51 xinference | return await dependant.call(**values) 2025-04-06 15:48:51 xinference | File "/usr/local/lib/python3.10/dist-packages/xinference/api/restful_api.py", …

刻意練習:如何從新手到大師

1. 練習方式 練習主要有兩類&#xff1a;天真的練習和刻意練習。 所謂“天真的練習”&#xff0c;基本上只是反復地做某些事情&#xff0c;并指望只靠那種反復&#xff0c;就能提高表現和水平。一旦某個人的表現達到了“可接受”的水平&#xff0c;并且可以做到自動化&#x…

基于Java的人臉識別在線考試系統(jsp+springboot+mysql8.x)

基于Java的人臉識別在線考試系統(jspspringbootmysql8.x) 在線考試系統提供全面的考試管理和用戶管理功能。登錄界面支持管理員、教師和學生三種身份驗證&#xff0c;確保不同用戶訪問相應的功能模塊。系統自動組卷功能允許管理員根據不同科目和題型&#xff0c;如單選題、多選…

預測分析(二):基于機器學習的數值預測

文章目錄 基于機器學習的數值預測機器學習簡介監督學習的任務創建第一個機器學習模型機器學習的目標——泛化過擬合現象評價函數與最優化 建模前的數據處理進一步特征變換 多元線性回歸模型LASSO回歸kNN算法原理算法步驟k值的選擇 基于機器學習的數值預測 機器學習是人工智能的…

批量壓縮 jpg/png 等格式照片|批量調整圖片的寬高尺寸

圖片格式種類非常的多&#xff0c;并且不同的圖片由于像素、尺寸不一樣&#xff0c;可能占用的空間也會不一樣。文件太大會占用較多的磁盤空間&#xff0c;傳輸及上傳系統都非常不方便&#xff0c;可能會收到限制&#xff0c;因此我們經常會碰到需要對圖片進行壓縮的需求。如何…

生鮮果蔬便利店實體零售門店商城小程序

——線上線下融合賦能社區零售新生態 隨著新零售模式的深化和消費者需求的升級&#xff0c;生鮮果蔬便利店亟需通過數字化工具實現經營效率與用戶體驗的雙重提升。結合線下實體門店與線上商城的一體化小程序&#xff0c;成為行業轉型的核心工具。以下從功能模塊、運營策略及行…

如何開通google Free Tier長期免費云服務器(1C/1G)

Google宣布的一項政策&#xff0c;為標準層級的網絡提供每地域200G的免費流量。兩項政策結合&#xff0c;于是便可以得到一臺1核心、1G內存、30G磁盤、200G流量的小云服務器&#xff0c;可玩性大大提高。這篇文章就分享一下如何正確開機&#xff0c;避免產生額外的費用。 免費…