機器學習3——參數估計之極大似然估計

參數估計

問題背景:

P ( ω i ∣ x ) = p ( x ∣ ω i ) P ( ω i ) p ( x ) p ( x ) = ∑ j = 1 c p ( x ∣ ω j ) P ( ω j ) \begin{aligned} & P\left(\omega_i \mid \mathbf{x}\right)=\frac{p\left(\mathbf{x} \mid \omega_i\right) P\left(\omega_i\right)}{p(\mathbf{x})} \\ & p(\mathbf{x})=\sum_{j=1}^c p\left(\mathbf{x} \mid \omega_j\right) P\left(\omega_j\right) \end{aligned} ?P(ωi?x)=p(x)p(xωi?)P(ωi?)?p(x)=j=1c?p(xωj?)P(ωj?)?

  • 說明:要計算后驗概率 P ( ω i ∣ x ) P\left(\omega_i \mid \mathbf{x}\right) P(ωi?x) ,需要知道:
  • p ( x ∣ ω i ) p\left(\mathbf{x} \mid \omega_i\right) p(xωi?) :類條件概率密度函數(似然)。
  • P ( ω i ) P\left(\omega_i\right) P(ωi?) :類別 ω i \omega_i ωi? 的先驗概率。

**如何得到這些值?需要從數據中估計。**對于先驗概率:

  • 數據集:

    D = { D 1 , D 2 , … , D c } D=\left\{D_1, D_2, \ldots, D_c\right\} D={D1?,D2?,,Dc?}

    D j 包含類別? ω j 的樣本。? D_j \text { 包含類別 } \omega_j \text { 的樣本。 } Dj??包含類別?ωj??的樣本。?
    先驗概率:
    P ( ω i ) = ∣ D i ∣ ∑ i = 1 c ∣ D i ∣ P\left(\omega_i\right)=\frac{\left|D_i\right|}{\sum_{i=1}^c\left|D_i\right|} P(ωi?)=i=1c?Di?Di??

接下來的問題是如何估計類條件概率密度。本章將討論的情況是, p ( x ∣ ω j ) p\left(\mathbf{x} \mid \omega_j\right) p(xωj?) 具有參數化形式,例如高斯分布:
p ( x ∣ ω j ) ~ N ( μ j , Σ j ) θ j = ( θ 1 , θ 2 , … , θ m ) T \begin{gathered} p\left(\mathbf{x} \mid \omega_j\right) \sim \mathcal{N}\left(\mu_j, \Sigma_j\right) \\ \theta_j=\left(\theta_1, \theta_2, \ldots, \theta_m\right)^T \end{gathered} p(xωj?)N(μj?,Σj?)θj?=(θ1?,θ2?,,θm?)T?

  • 如果 x ∈ R d \mathbf{x} \in \mathbb{R}^d xRd ,則 θ j \theta_j θj? 包含 d + d ( d + 1 ) 2 d+\frac{d(d+1)}{2} d+2d(d+1)? 個自由參數(均值向量和協方差矩陣的元素)。
  • μ j \mu_j μj? :均值向量,維度為 d 。? d_{\text {。 }} d??
  • Σ j \Sigma_j Σj? :協方差矩陣,對稱矩陣,包含 d ( d + 1 ) 2 \frac{d(d+1)}{2} 2d(d+1)? 個唯一元素(因為 Σ i j = Σ j i \Sigma_{i j}=\Sigma_{j i} Σij?=Σji? )。
  • 總參數數量: d d d(均值) + d ( d + 1 ) 2 +\frac{d(d+1)}{2} +2d(d+1)?(協方差) = d + d ( d + 1 ) 2 =d+\frac{d(d+1)}{2} =d+2d(d+1)?
  • θ j \theta_j θj? :包含所有待估計參數的向量,例如均值和協方差的元素。

數據集與符號:

D = { D 1 , D 2 , … , D c } p ( x ∣ ω j ) = p ( x ∣ θ j ) \begin{aligned} & \mathcal{D}=\left\{\mathcal{D}_1, \mathcal{D}_2, \ldots, \mathcal{D}_c\right\} \\ & p\left(\mathbf{x} \mid \omega_j\right)=p\left(\mathbf{x} \mid \theta_j\right) \end{aligned} ?D={D1?,D2?,,Dc?}p(xωj?)=p(xθj?)?

類條件密度 p ( x ∣ ω j ) p\left(\mathbf{x} \mid \omega_j\right) p(xωj?) 被表示為參數 θ j \theta_j θj? 的函數,強化了參數化方法。

目標:使用 D j \mathcal{D}_j Dj? 估計未知參數向量:
θ j = ( θ 1 , θ 2 , … , θ m ) T \theta_j=\left(\theta_1, \theta_2, \ldots, \theta_m\right)^T θj?=(θ1?,θ2?,,θm?)T

  • 兩種估計方法:

    • 最大似然估計(MLE):

      • 把參數 θ \theta θ 看作是固定但未知的值。我們觀察到了數據,就用它來找出"最有可能"生成這些數據的參數值。即“Estimate parameter values by maximizing the likelihood (probability) of observing the actual examples.”
        "先有參數,再有數據;現在有了數據,反推參數。"

      • 給定訓練數據 D = { x 1 , … , x n } \mathcal{D}=\left\{x_1, \ldots, x_n\right\} D={x1?,,xn?} ,我們假設它們是從分布 p ( x ∣ θ ) p(x \mid \theta) p(xθ) 中獨立采樣出來的。最大似然的目標是:

        θ ^ M L E = arg ? max ? θ p ( x 1 , … , x n ∣ θ ) = arg ? max ? θ ∏ i = 1 n p ( x i ∣ θ ) \hat{\theta}_{\mathrm{MLE}}=\arg \max _\theta p\left(x_1, \ldots, x_n \mid \theta\right)=\arg \max _\theta \prod_{i=1}^n p\left(x_i \mid \theta\right) θ^MLE?=argθmax?p(x1?,,xn?θ)=argθmax?i=1n?p(xi?θ)
        為了簡化計算,我們通常取對數(log-likelihood):
        θ ^ M L E = arg ? max ? θ ∑ i = 1 n log ? p ( x i ∣ θ ) \hat{\theta}_{\mathrm{MLE}}=\arg \max _\theta \sum_{i=1}^n \log p\left(x_i \mid \theta\right) θ^MLE?=argθmax?i=1n?logp(xi?θ)

    • 貝葉斯估計:

      • 把參數 θ \theta θ 看作隨機變量,它本身有個先驗分布 p ( θ ) p(\theta) p(θ) 。當我們觀察到數據 D \mathcal{D} D 后,用貝葉斯公式將先驗更新為后驗 p ( θ ∣ D ) p(\theta \mid \mathcal{D}) p(θD)
        "參數不是一個確定值,而是一個不確定的分布。看到數據后,我只是更新了我對它的信念。"

      • 根據貝葉斯公式:

        p ( θ ∣ D ) = p ( D ∣ θ ) ? p ( θ ) p ( D ) p(\theta \mid \mathcal{D})=\frac{p(\mathcal{D} \mid \theta) \cdot p(\theta)}{p(\mathcal{D})} p(θD)=p(D)p(Dθ)?p(θ)?
        其中:

        • p ( D ∣ θ ) p(\mathcal{D} \mid \theta) p(Dθ) :似然(和MLE一樣);
        • p ( θ ) p(\theta) p(θ) :先驗;
        • p ( D ) p(\mathcal{D}) p(D) :對所有參數的積分(保證后驗是個合法分布);

        有了后驗分布 p ( θ ∣ D ) p(\theta \mid \mathcal{D}) p(θD) 后,可以:

        • 求它的最大后驗估計(MAP):

        θ ^ M A P = arg ? max ? θ p ( θ ∣ D ) \hat{\theta}_{\mathrm{MAP}}=\arg \max _\theta p(\theta \mid \mathcal{D}) θ^MAP?=argθmax?p(θD)

        • 或者使用后驗分布的期望作為估計。

最大似然估計

多元高斯分布為例講解MLE的應用。

假設我們有一個觀測數據集:

D = { x 1 , x 2 , … , x n } \mathcal{D}=\left\{\mathbf{x}_1, \mathbf{x}_2, \ldots, \mathbf{x}_n\right\} D={x1?,x2?,,xn?}

這些樣本被認為是從某個參數為 θ \theta θ 的概率分布中獨立同分布采樣得到的。
因為樣本獨立,整個數據集出現的聯合概率是各樣本概率的乘積:
p ( D ∣ θ ) = p ( x 1 ∣ θ ) p ( x 2 ∣ θ ) … p ( x n ∣ θ ) ∏ k = 1 n p ( x k ∣ θ ) p(\mathcal{D} \mid \theta)=p\left(\mathbf{x}_1 \mid \theta\right) p\left(\mathbf{x}_2 \mid \theta\right) \ldots p\left(\mathbf{x}_n \mid \theta\right)\prod_{k=1}^n p\left(\mathbf{x}_k \mid \theta\right) p(Dθ)=p(x1?θ)p(x2?θ)p(xn?θ)k=1n?p(xk?θ)

我們把這個函數看作 θ \theta θ 的函數,叫做似然函數,記作:

L ( θ ∣ D ) = ∏ k = 1 n p ( x k ∣ θ ) L(\theta \mid \mathcal{D})=\prod_{k=1}^n p\left(\mathbf{x}_k \mid \theta\right) L(θD)=k=1n?p(xk?θ)
最大似然估計就是選擇一個 θ ^ \hat{\theta} θ^ 使得這個似然函數最大化:
θ ^ = arg ? max ? θ L ( θ ∣ D ) \hat{\theta}=\arg \max _\theta L(\theta \mid \mathcal{D}) θ^=argθmax?L(θD)

也就是說,找到讓觀測數據“最可能”出現的參數值。我們對其取自然對數,得到對數似然函數:

l ( θ ∣ D ) = ln ? L ( θ ∣ D ) = ∑ k = 1 n ln ? p ( x k ∣ θ ) l(\theta \mid \mathcal{D})=\ln L(\theta \mid \mathcal{D})=\sum_{k=1}^n \ln p\left(\mathbf{x}_k \mid \theta\right) l(θD)=lnL(θD)=k=1n?lnp(xk?θ)
MLE目標轉化為:

θ ^ = arg ? max ? θ l ( θ ∣ D ) \hat{\theta}=\arg \max _\theta l(\theta \mid \mathcal{D}) θ^=argθmax?l(θD)

  • 情況 I:協方差 Σ \Sigma Σ 已知,僅估計均值 μ \mu μ

    高斯概率密度函數(PDF):

    對于一個 d d d 維特征向量 x \mathbf{x} x
    p ( x ∣ μ , Σ ) = 1 ( 2 π ) d / 2 ∣ Σ ∣ 1 / 2 exp ? [ ? 1 2 ( x ? μ ) T Σ ? 1 ( x ? μ ) ] p(\mathbf{x} \mid \mu, \Sigma) = \frac{1}{(2\pi)^{d/2} |\Sigma|^{1/2}} \exp \left[ -\frac{1}{2} (\mathbf{x} - \mu)^T \Sigma^{-1} (\mathbf{x} - \mu) \right] p(xμ,Σ)=(2π)d/2∣Σ1/21?exp[?21?(x?μ)TΣ?1(x?μ)]

    似然函數(所有樣本聯合概率)
    L ( μ ∣ D ) = ∏ k = 1 n p ( x k ∣ μ ) L(\mu \mid \mathcal{D}) = \prod_{k=1}^n p(\mathbf{x}_k \mid \mu) L(μD)=k=1n?p(xk?μ)

    代入高斯密度函數后,乘積項包含了指數和常數項。

    對數似然函數:

    取自然對數后得:
    l ( μ ∣ D ) = ? ln ? ( 2 π ) n d / 2 ? ln ? ∣ Σ ∣ n / 2 ? 1 2 ∑ k = 1 n ( x k ? μ ) T Σ ? 1 ( x k ? μ ) l(\mu \mid \mathcal{D}) = -\ln (2\pi)^{nd/2} - \ln |\Sigma|^{n/2} - \frac{1}{2} \sum_{k=1}^n (\mathbf{x}_k - \mu)^T \Sigma^{-1} (\mathbf{x}_k - \mu) l(μD)=?ln(2π)nd/2?ln∣Σn/2?21?k=1n?(xk??μ)TΣ?1(xk??μ)
    前兩個是常數項,不影響優化,目標函數實質上是最小化平方誤差項。

    MLE求解過程(以 μ \mu μ 為例)

    我們對對數似然函數對 μ \mu μ 求導,并令其為零:
    ? μ l ( μ ∣ D ) = ∑ k = 1 n Σ ? 1 ( x k ? μ ) = 0 \nabla_\mu l(\mu \mid \mathcal{D}) = \sum_{k=1}^n \Sigma^{-1} (\mathbf{x}_k - \mu) = 0 ?μ?l(μD)=k=1n?Σ?1(xk??μ)=0
    移項得到:
    ∑ k = 1 n ( x k ? μ ) = 0 ? μ = 1 n ∑ k = 1 n x k \sum_{k=1}^n (\mathbf{x}_k - \mu) = 0 \quad \Rightarrow \quad \mu = \frac{1}{n} \sum_{k=1}^n \mathbf{x}_k k=1n?(xk??μ)=0?μ=n1?k=1n?xk?

    結論:

    最大似然估計下,未知均值 μ \mu μ 的估計值就是樣本均值(Sample Mean)

  • 情況 II:均值和方差都未知

    我們現在假設數據是從一個一維高斯分布(正態分布)中采樣的:
    p ( x ∣ μ , σ 2 ) = 1 2 π σ 2 exp ? ( ? ( x ? μ ) 2 2 σ 2 ) p(x \mid \mu, \sigma^2) = \frac{1}{\sqrt{2\pi \sigma^2}} \exp\left( -\frac{(x - \mu)^2}{2\sigma^2} \right) p(xμ,σ2)=2πσ2 ?1?exp(?2σ2(x?μ)2?)
    但此時我們不知道這個分布的均值 μ 和方差 σ2,我們要用樣本數據 D = { x 1 , x 2 , … , x n } \mathcal{D} = \{x_1, x_2, \dots, x_n\} D={x1?,x2?,,xn?} 來估計這兩個參數。

    我們的方法是:對參數 θ = ( μ , σ 2 ) T \theta = (\mu, \sigma^2)^T θ=(μ,σ2)T 使用極大似然估計(MLE)。

    我們有 n 個獨立同分布的樣本 x 1 , x 2 , … , x n x_1, x_2, \dots, x_n x1?,x2?,,xn?,所以似然函數是:
    L ( θ ∣ D ) = ∏ k = 1 n p ( x k ∣ θ ) L(\theta \mid \mathcal{D}) = \prod_{k=1}^n p(x_k \mid \theta) L(θD)=k=1n?p(xk?θ)
    代入高斯分布的公式,得到:
    L ( θ ∣ D ) = 1 ( 2 π ) n / 2 σ n exp ? ( ? 1 2 σ 2 ∑ k = 1 n ( x k ? μ ) 2 ) L(\theta \mid \mathcal{D}) = \frac{1}{(2\pi)^{n/2} \sigma^n} \exp\left( -\frac{1}{2\sigma^2} \sum_{k=1}^n (x_k - \mu)^2 \right) L(θD)=(2π)n/2σn1?exp(?2σ21?k=1n?(xk??μ)2)
    對數似然函數是:
    l ( θ ∣ D ) = ? n 2 ln ? ( 2 π ) ? n 2 ln ? ( σ 2 ) ? 1 2 σ 2 ∑ k = 1 n ( x k ? μ ) 2 l(\theta \mid \mathcal{D}) = -\frac{n}{2} \ln(2\pi) - \frac{n}{2} \ln(\sigma^2) - \frac{1}{2\sigma^2} \sum_{k=1}^n (x_k - \mu)^2 l(θD)=?2n?ln(2π)?2n?ln(σ2)?2σ21?k=1n?(xk??μ)2
    這里為了后續方便我們記:

    • θ 1 = μ \theta_1 = \mu θ1?=μ
    • θ 2 = σ 2 \theta_2 = \sigma^2 θ2?=σ2

    寫成統一的形式:
    l ( θ ) = ? n 2 ln ? ( 2 π ) ? n 2 ln ? ( θ 2 ) ? 1 2 θ 2 ∑ k = 1 n ( x k ? θ 1 ) 2 l(\theta) = -\frac{n}{2} \ln(2\pi) - \frac{n}{2} \ln(\theta_2) - \frac{1}{2\theta_2} \sum_{k=1}^n (x_k - \theta_1)^2 l(θ)=?2n?ln(2π)?2n?ln(θ2?)?2θ2?1?k=1n?(xk??θ1?)2
    我們對 θ 1 = μ \theta_1 = \mu θ1?=μ θ 2 = σ 2 \theta_2 = \sigma^2 θ2?=σ2 分別求導:

    θ 1 = μ \theta_1 = \mu θ1?=μ 求導:
    ? l ? θ 1 = 1 θ 2 ∑ k = 1 n ( x k ? θ 1 ) = 1 θ 2 ( ∑ k = 1 n x k ? n θ 1 ) \frac{\partial l}{\partial \theta_1} = \frac{1}{\theta_2} \sum_{k=1}^n (x_k - \theta_1) = \frac{1}{\theta_2} \left( \sum_{k=1}^n x_k - n\theta_1 \right) ?θ1??l?=θ2?1?k=1n?(xk??θ1?)=θ2?1?(k=1n?xk??nθ1?)

    令導數為 0:
    ∑ k = 1 n x k = n θ 1 ? θ 1 = 1 n ∑ k = 1 n x k = μ ^ \sum_{k=1}^n x_k = n\theta_1 \Rightarrow \theta_1 = \frac{1}{n} \sum_{k=1}^n x_k = \hat{\mu} k=1n?xk?=nθ1??θ1?=n1?k=1n?xk?=μ^?
    θ 2 = σ 2 \theta_2 = \sigma^2 θ2?=σ2 求導:
    ? l ? θ 2 = ? n 2 θ 2 + 1 2 θ 2 2 ∑ k = 1 n ( x k ? θ 1 ) 2 \frac{\partial l}{\partial \theta_2} = -\frac{n}{2\theta_2} + \frac{1}{2\theta_2^2} \sum_{k=1}^n (x_k - \theta_1)^2 ?θ2??l?=?2θ2?n?+2θ22?1?k=1n?(xk??θ1?)2

    令導數為 0:
    ? n 2 θ 2 + 1 2 θ 2 2 ∑ k = 1 n ( x k ? θ 1 ) 2 = 0 -\frac{n}{2\theta_2} + \frac{1}{2\theta_2^2} \sum_{k=1}^n (x_k - \theta_1)^2 = 0 ?2θ2?n?+2θ22?1?k=1n?(xk??θ1?)2=0
    結論:極大似然估計值

    • 均值的MLE為樣本均值:
      μ ^ = 1 n ∑ k = 1 n x k \hat{\mu} = \frac{1}{n} \sum_{k=1}^n x_k μ^?=n1?k=1n?xk?

    • 方差的MLE為樣本方差(無偏性需除以 n ? 1 n-1 n?1,但MLE 是除以 n):
      σ ^ 2 = 1 n ∑ k = 1 n ( x k ? μ ^ ) 2 \hat{\sigma}^2 = \frac{1}{n} \sum_{k=1}^n (x_k - \hat{\mu})^2 σ^2=n1?k=1n?(xk??μ^?)2

    方差的估計偏差是一個經典的證明。

    MLE 對一維正態分布的方差估計為:
    σ M L 2 = 1 n ∑ i = 1 n ( x i ? μ M L ) 2 \sigma^2_{ML} = \frac{1}{n} \sum_{i=1}^n (x_i - \mu_{ML})^2 σML2?=n1?i=1n?(xi??μML?)2
    將平方項展開:
    = 1 n ∑ i = 1 n ( x i 2 ? 2 x i μ M L + μ M L 2 ) = 1 n ∑ i = 1 n x i 2 ? 2 μ M L ? 1 n ∑ i = 1 n x i + μ M L 2 = 1 n ∑ i = 1 n x i 2 ? μ M L 2 = \frac{1}{n} \sum_{i=1}^n \left( x_i^2 - 2x_i\mu_{ML} + \mu_{ML}^2 \right) = \frac{1}{n} \sum_{i=1}^n x_i^2 - 2\mu_{ML} \cdot \frac{1}{n} \sum_{i=1}^n x_i + \mu_{ML}^2 = \frac{1}{n} \sum_{i=1}^n x_i^2 - \mu_{ML}^2 =n1?i=1n?(xi2??2xi?μML?+μML2?)=n1?i=1n?xi2??2μML??n1?i=1n?xi?+μML2?=n1?i=1n?xi2??μML2?
    求期望:
    E [ σ M L 2 ] = 1 n ∑ i = 1 n E [ x i 2 ] ? E [ μ M L 2 ] E[\sigma^2_{ML}] = \frac{1}{n} \sum_{i=1}^n E[x_i^2] - E[\mu_{ML}^2] E[σML2?]=n1?i=1n?E[xi2?]?E[μML2?]
    已知:
    E [ x i 2 ] = Var ( x i ) + [ E ( x i ) ] 2 = σ 2 + μ 2 E[x_i^2] = \text{Var}(x_i) + [E(x_i)]^2 = \sigma^2 + \mu^2 E[xi2?]=Var(xi?)+[E(xi?)]2=σ2+μ2
    而樣本均值的平方的期望為:
    E [ μ M L 2 ] = Var ( μ M L ) + [ E ( μ M L ) ] 2 = σ 2 n + μ 2 E[\mu_{ML}^2] = \text{Var}(\mu_{ML}) + [E(\mu_{ML})]^2 = \frac{\sigma^2}{n} + \mu^2 E[μML2?]=Var(μML?)+[E(μML?)]2=nσ2?+μ2
    代入得:
    E [ σ M L 2 ] = ( σ 2 + μ 2 ) ? ( σ 2 n + μ 2 ) = σ 2 ? σ 2 n = n ? 1 n σ 2 E[\sigma^2_{ML}] = (\sigma^2 + \mu^2) - \left( \frac{\sigma^2}{n} + \mu^2 \right) = \sigma^2 - \frac{\sigma^2}{n} = \frac{n-1}{n} \sigma^2 E[σML2?]=(σ2+μ2)?(nσ2?+μ2)=σ2?nσ2?=nn?1?σ2
    結論: 方差的最大似然估計存在偏差,其期望為 n ? 1 n σ 2 \frac{n-1}{n} \sigma^2 nn?1?σ2,因此也是一個有偏估計。類似前頁的協方差,需要進行修正才能成為無偏估計。

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/pingmian/86434.shtml
繁體地址,請注明出處:http://hk.pswp.cn/pingmian/86434.shtml
英文地址,請注明出處:http://en.pswp.cn/pingmian/86434.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

Spring AOP Pointcut 表達式的語法是怎樣的?(execution(...) 是最常用的,還有哪些

Pointcut 表達式是 AOP 的核心,我將詳細解析最常用的 execution 表達式,并介紹其他幾種同樣非常有用的表達式。 1. execution 指示符 (最常用,最強大) execution 用于匹配方法的執行(Join Point)。它的語法結構最為完…

基于 SpringBoot+Vue 的臺球廳管理系統的設計與實現(畢業論文)

基于 SpringBootVue 的臺球廳管理系統的設計與實現(模板)[三號宋體加粗,居中] 摘 要[首行縮進2字符,五號黑體加粗]:摘要內容[五號楷體]本文所提出的基于J2EE/EJB標準的電子化采購平臺及其CRM組件綜合解決方案&#xf…

運營醫療信息化建設的思路

醫療機構加強運營管理,必須依賴強有力的醫院信息系統。信息化很重要,但不能為了信息化而信息化。運營信息化必須有明確的建設目標。 運營信息化建設的目標,包括幾個方面: 1.實時反映業務; 2.體現內控思維&#xff1b…

6.24_JAVA_微服務day07_RabbitMQ高級

1、 RabbitListener(queuesToDeclare/*此處是固定寫法,只能寫這個玩意兒,因為這里是庫里的方法*/ Queue(name "lazy.queue",//如果不存在就創建lazy.queue隊列durable "true",//把耐用打開arguments Argument(name "x-que…

Python打卡:Day38

知識點回顧: Dataset類的__getitem__和__len__方法(本質是python的特殊方法)Dataloader類minist手寫數據集的了解 浙大疏錦行

質量管理五大核心工具之SPC

SPC(Statistical Process Control,統計過程控制)是一種基于統計學的質量控制方法,旨在通過監控和分析生產過程數據,識別異常波動并消除異常因素,從而確保過程穩定受控,提升產品質量一致性145。以…

【世紀龍科技】新能源汽車VR虛擬體驗展示館-解鎖認知新維度

解鎖新能源汽車深度認知新維度:沉浸式 VR 虛擬體驗展示館 在科技不斷突破邊界的當下,人們對新能源汽車的探索渴望愈發強烈。無論是希望深入了解行業發展脈絡的求知者,還是想要直觀掌握汽車技術原理的學習者,傳統的展示方式似乎總…

oracle基礎審計管理

Oracle數據庫審計功能詳解(簡單易懂!) 更新時間:2024年01月30日 16:21:27 作者:前程的前程也迷茫 Oracle審計查詢是一項重要的任務,可以幫助DBA更好的管理Oracle數據庫,下面這篇文章主要給大家介紹了關于Oracle數據庫審計功能的相關資料,文中通過代碼介紹…

Day44 預訓練模型

目錄 一、預訓練的概念 二、常見的分類預訓練模型 2.1 CNN架構預訓練模型 2.2 Transformer類預訓練模型 2.3 自監督預訓練模型 三、圖像預訓練模型的發展史 四、預訓練的策略 五、預訓練代碼實戰:resnet18 六、嘗試在cifar10對比alexnet 七、嘗試通過ctrl進…

尋找兩個正序數組的中位數:二分查找的終極算法

引言:中位數的「C位之爭」 如果把數組比作排隊買奶茶的隊伍,中位數就是那個站在正中間的幸運兒——不需要知道所有人的位置,只需要找到那個「剛剛好」的中間位置。這個問題看似簡單,卻藏著算法世界的「效率密碼」,尤其…

使用tensorflow的線性回歸的例子(一)

擬合y2x1 import matplotlib.pyplot as plt import numpy as np import tensorflow as tf print(tf.__version__) %matplotlib inline #載入隨機種子 np.random.seed(5) #生成100個等差序列,每個值在-1 - 1 之間 x_data np.linspace(-1,1,100) #y 2x …

OpenLayers 渲染之矢量影像圖層

前言 :::block-1 對于像GeoJSON、KML等地理數據格式的文件,最常用的方法都是通過VectorLayer進行渲染。除此之外,還可以使用VectorImage(矢量影像圖層)進行渲染。本文主要介紹在客戶端拖動上傳GeoJSON、KML等文件,并采…

Feign 實戰指南:從 REST 替代到性能優化與最佳實踐

Feign 實戰指南:從 REST 替代到性能優化與最佳實踐 一 . Feign 替代 RestTemplate1.1 RestTemplate 方式調用存在的問題1.2 Feign 的介紹1.3 定義和使用 Feign 客戶端1.3.1 引入依賴1.3.2 添加注解1.3.3 編寫 Feign 的客戶端進行接口聲明1.3.4 測試小結 1.4 通過 PO…

什么是國際期貨?期貨交易平臺搭建

國際期貨(International Futures),又稱外盤期貨或全球期貨,是指在中國大陸以外的交易所進行標準化合約交易的金融衍生品市場。其核心特征、功能及與國內期貨的區別如下: 📍 一、定義與核心特征 全球化交易…

考取華為HCIE-AI有什么用?

在人工智能技術重塑各行各業的浪潮中,掌握核心AI能力成為專業人士的制勝關鍵。華為推出的HCIE-AI Solution Architect(華為認證ICT專家-AI解決方案架構師),正是面向這一領域頂尖人才設立的最高級別認證。主要是為了培養和認證掌握…

Maven 使用說明和配置

作者:小凱 沉淀、分享、成長,讓自己和他人都能有所收獲!😄 一、前言 Apache Maven (opens new window)是一個軟件項目管理、構建和依賴工具。基于項目對象模型 (POM) 的概念,Maven 可以通過中央信息來管理項目的構建、…

【Docker管理工具】安裝Docker容器自動更新工具Watchtower

【Docker管理工具】安裝Docker容器自動更新工具Watchtower 一、Watchtower介紹1.1 Watchtower簡介1.2 Watchtower使用注意1.3 Watchtower使用場景1.4 Docker容器介紹 二、本次實踐介紹2.1 本地環境規劃2.2 本次實踐介紹 三、本地環境檢查3.1 檢查Docker服務狀態3.2 檢查Docker版…

AI優化SEO關鍵詞精進

內容概要 隨著人工智能技術的飛速發展,其在搜索引擎優化(SEO)領域的應用正引發深刻變革。本文將系統探討AI如何革新傳統的關鍵詞優化策略,通過更智能的分析與匹配方法,顯著提升內容在搜索結果中的可見度與排名。核心議…

canvas面試題200道

下面是一份 200 條關于 HTML5 Canvas 的面試題合集,適用于前端開發崗位的中高級工程師面試準備。內容涵蓋基礎概念、繪圖操作、性能優化、動畫實現、安全機制等多個方面,并附有參考答案或解析建議。 ?? 一、Canvas 基礎知識(1-40) 1. 什么是 HTML5 Canvas? <canvas&…

Java 大視界 -- Java 大數據在智能安防視頻監控系統中的目標軌跡預測與防范策略制定(325)

Java 大視界 -- Java 大數據在智能安防視頻監控系統中的目標軌跡預測與防范策略制定&#xff08;325&#xff09; 引言&#xff1a;正文&#xff1a;一、Java 驅動的安防視頻數據采集與預處理架構1.1 多路異構視頻流合規接入層&#xff08;GB/T 28181-2021 全協議適配&#xff…