EM算法公式推導

EM算法公式推導

EM 算法是一種用來進行含有隱變量的概率生成模型參數估計的迭代算法。

EM算法步驟

EM 算法通過迭代求 L(θ)=log?P(X∣θ)L(\theta)=\log P(X|\theta)L(θ)=logP(Xθ) 的極大似然估計,每次迭代包含兩部:E步,求期望;M步,求極大化。

算法流程:

  • 輸入:觀測變量數據 XXX,隱變量數據 ZZZ,聯合分布 P(X,Z∣θ)P(X,Z|\theta)P(X,Zθ) ,條件分布:P(Z∣X,θ)P(Z|X,\theta)P(ZX,θ)

  • 輸出:模型參數 θ\thetaθ

  • 步驟

    1. 選擇參數的初值 θ0\theta^{0}θ0 ,開始迭代;

    2. E 步:記 θt\theta^{t}θt 為第 ttt 次迭代參數 θ\thetaθ 的估計值,在第 i+1i+1i+1 次迭代的 E 步,計算:
      Q(θ,θt)=EZ[log?P(X,Z∣θ)∣X,θ(t)]=∑Zlog?P(X,Z∣θ)P(Z∣X,θ(t))\begin{align} Q(\theta,\theta^{t})&=\mathbb{E}_Z[\log P(X,Z|\theta)|X,\theta^{(t)}]\\ &=\sum_{Z}\log P(X,Z|\theta)P(Z|X,\theta^{(t)}) \end{align} Q(θ,θt)?=EZ?[logP(X,Zθ)X,θ(t)]=Z?logP(X,Zθ)P(ZX,θ(t))??
      這里 P(Z∣X,θ(t))P(Z|X,\theta^{(t)})P(ZX,θ(t)) 為給定觀測數據 XXX 和當前參數估計 θ(t)\theta^{(t)}θ(t) 下隱變量數據 ZZZ 的條件概率分布;

    3. M 步:求使 Q(θ,θ(t))Q(\theta,\theta^{(t)})Q(θ,θ(t)) 極大化的 θ\thetaθ ,確定第 t+1t+1t+1 次迭代的參數估計值 θt+1\theta^{t+1}θt+1 :
      θ(t+1)=arg?max?θQ(θ,θt)\theta^{(t+1)}=\arg\max_{\theta}Q(\theta,\theta^{t}) θ(t+1)=argθmax?Q(θ,θt)

    4. 重復 2、3 兩步,直到收斂。

函數 Q(θ,θ(t))Q(\theta,\theta^{(t)})Q(θ,θ(t)) 是 EM 算法的核心,稱為 QQQ 函數。

EM算法收斂性證明

EM 迭代算法終歸要求的是 log?P(X∣θ)\log P(X|\theta)logP(Xθ) 的極大似然估計,因此,要證明它的收斂性,即要證明:
log?P(X∣θ(t+1))≥log?P(X∣θ(t))\log P(X|\theta^{(t+1)})\ge \log P(X|\theta^{(t)}) logP(Xθ(t+1))logP(Xθ(t))
下面開始證明:
log?P(X∣θ)=log?P(X,Z∣θ)P(Z∣X,θ)=log?P(X,Z∣θ)?P(Z∣X,θ)\log P(X|\theta)=\log \frac{P(X,Z|\theta)}{P(Z|X,\theta)}=\log P(X,Z|\theta)-P(Z|X,\theta) logP(Xθ)=logP(ZX,θ)P(X,Zθ)?=logP(X,Zθ)?P(ZX,θ)
接下來我們同時對等式兩邊乘 P(Z∣X,θ(t))P(Z|X,\theta^{(t)})P(ZX,θ(t)) 在對 ZZZ 求積分:
左邊=∫ZP(Z∣X,θ(t))log?P(X,Z∣θ)dZ=log?P(X,Z∣θ)∫ZP(Z∣X,θ(t))dZ=log?P(X,Z∣θ)左邊=\int_Z P(Z|X,\theta^{(t)})\log P(X,Z|\theta)dZ=\log P(X,Z|\theta)\int_Z P(Z|X,\theta^{(t)})dZ=\log P(X,Z|\theta) 左邊=Z?P(ZX,θ(t))logP(X,Zθ)dZ=logP(X,Zθ)Z?P(ZX,θ(t))dZ=logP(X,Zθ)
即,左邊相當于沒變。
右邊=∫ZP(Z∣X,θ(t))log?P(X,Z∣θ)?∫ZP(Z∣X,θ(t))log?P(Z∣X,θ)=Q(θ,θ(t))?H(θ,θ(t))右邊=\int_ZP(Z|X,\theta^{(t)})\log P(X,Z|\theta)-\int_ZP(Z|X,\theta^{(t)})\log P(Z|X,\theta)=Q(\theta,\theta^{(t)})-H(\theta,\theta^{(t)}) 右邊=Z?P(ZX,θ(t))logP(X,Zθ)?Z?P(ZX,θ(t))logP(ZX,θ)=Q(θ,θ(t))?H(θ,θ(t))
分別將上式兩項記為 Q(θ,θ(t))Q(\theta,\theta^{(t)})Q(θ,θ(t))H(θ,θ(t))H(\theta,\theta^{(t)})H(θ,θ(t)) 。我們要證的是 log?P(X∣θ(t+1))≥log?P(X∣θ(t))\log P(X|\theta^{(t+1)})\ge \log P(X|\theta^{(t)})logP(Xθ(t+1))logP(Xθ(t)) ,這里可以通過證明
log?P(X∣θ(t+1))?log?P(X∣θ(t))=Q(θ(t+1),θ(t))?Q(θ(t),θ(t))+H(θ(t),θ(t))?H(θ(t+1),θ(t))≥0\log P(X|\theta^{(t+1)})-\log P(X|\theta^{(t)})=Q(\theta^{(t+1)},\theta^{(t)})-Q(\theta^{(t)},\theta^{(t)})+H(\theta^{(t)},\theta^{(t)})-H(\theta^{(t+1)},\theta^{(t)})\ge0 logP(Xθ(t+1))?logP(Xθ(t))=Q(θ(t+1),θ(t))?Q(θ(t),θ(t))+H(θ(t),θ(t))?H(θ(t+1),θ(t))0
來得到。對于 Q(θ,θ(t))Q(\theta,\theta^{(t)})Q(θ,θ(t)) ,明顯是通過迭代過程的 arg?max?\arg\maxargmax 可以保證。因此,我們只需證明 H(θ(t),θ(t))?H(θ(t+1),θ(t))≥0H(\theta^{(t)},\theta^{(t)})-H(\theta^{(t+1)},\theta^{(t)})\ge0H(θ(t),θ(t))?H(θ(t+1),θ(t))0
H(θ(t),θ(t))?H(θ(t+1),θ(t))=∫ZP(Z∣X,θ(t))log?P(Z∣X,θ(t))?∫ZP(Z∣X,θ(t))log?P(Z∣X,θ(t+1))=∫ZP(Z∣X,θ(t))log?P(Z∣X,θ(t))P(Z∣X,θ(t+1))=KL(P(Z∣X,θ(t))∣∣P(Z∣X,θ(t+1)))≥0\begin{align} H(\theta^{(t)},\theta^{(t)})-H(\theta^{(t+1)},\theta^{(t)})&=\int_ZP(Z|X,\theta^{(t)})\log P(Z|X,\theta^{(t)})-\int_ZP(Z|X,\theta^{(t)})\log P(Z|X,\theta^{(t+1)})\\ &=\int_ZP(Z|X,\theta^{(t)})\log \frac{P(Z|X,\theta^{(t)})}{P(Z|X,\theta^{(t+1)})}\\ &=KL(P(Z|X,\theta^{(t)})||P(Z|X,\theta^{(t+1)}))\ge0 \end{align} H(θ(t),θ(t))?H(θ(t+1),θ(t))?=Z?P(ZX,θ(t))logP(ZX,θ(t))?Z?P(ZX,θ(t))logP(ZX,θ(t+1))=Z?P(ZX,θ(t))logP(ZX,θ(t+1))P(ZX,θ(t))?=KL(P(ZX,θ(t))∣∣P(ZX,θ(t+1)))0??
發現最后的形式是 P(Z∣X,θ)(t)P(Z|X,\theta)^{(t)}P(ZX,θ)(t)P(Z∣X,θ(t+1))P(Z|X,\theta^{(t+1)})P(ZX,θ(t+1)) 的 KL 散度,故可以直接得到上式大于等于零,收斂性得證。這里也可以由詹森不等式證得。

上面我們是給出最終的公式,然后證明它的收斂性,即 log?P(X∣θ(t+1))≥log?P(X∣θ(t))\log P(X|\theta^{(t+1)})\ge \log P(X|\theta^{(t)})logP(Xθ(t+1))logP(Xθ(t)) ,這樣來說明 EM 算法確實可以以迭代的形式來最大化 P(X∣θ)P(X|\theta)P(Xθ) 。但是這個公式是怎么得到的呢?下面兩小節我們分別從 KL 散度的角度和 Jensen 不等式的角度來推導 EM 算法的導出。

EM算法的導出——KL散度

我們再回顧一下整個算法的設定:

  • 觀測數據:XXX

  • 隱變量:ZZZ

  • 完整數據:(X,Z)(X,Z)(X,Z)

  • 參數:θ\thetaθ

  • MLE:θ^MLE=log?P(X∣θ)\hat{\theta}_{MLE}=\log P(X|\theta)θ^MLE?=logP(Xθ)

  • EM 公式
    θ(t+1)=arg?max?θ∫log?P(X,Z∣θ)P(Z∣X,θ(t))dZE步:P(Z∣X,θ(t))→EZ∣X,θ(t)[log?P(X,Z∣θ)]M步:θ(t+1)=arg?max?θEZ∣X,θ(t)[log?P(X,Z∣θ)]\theta^{(t+1)}=\arg\max_{\theta}\int\log P(X,Z|\theta)P(Z|X,\theta^{(t)})dZ\\ E步:P(Z|X,\theta^{(t)})\rightarrow \mathbb{E}_{Z|X,\theta^{(t)}}[\log P(X,Z|\theta)]\\ M步:\theta^{(t+1)}=\arg\max_{\theta}\mathbb{E}_{Z|X,\theta^{(t)}}[\log P(X,Z|\theta)] θ(t+1)=argθmax?logP(X,Zθ)P(ZX,θ(t))dZE步:P(ZX,θ(t))EZX,θ(t)?[logP(X,Zθ)]M步:θ(t+1)=argθmax?EZX,θ(t)?[logP(X,Zθ)]

E 步求對數條件聯合概率 log?P(X,Z∣θ)\log P(X,Z|\theta)logP(X,Zθ) 關于后驗 Z∣X,θ(t)Z|X,\theta^{(t)}ZX,θ(t) 的期望,M 步選擇一個新的 θ(t+1)\theta^{(t+1)}θ(t+1) 使得上述期望達到最大。從而迭代地使得 log?P(X∣θ)\log P(X|\theta)logP(Xθ) 達到最大。上面已經證明了這個算法的收斂性。

下面開始推導公式的導出。我們還是從對數似然 log?P(X∣θ)\log P(X|\theta)logP(Xθ) 出發:
log?P(X∣θ)=log?P(X,Z∣θ)P(Z∣X,θ)=log?P(X,Z∣θ)?log?P(Z∣X,θ)=log?P(X,Z∣θ)q(Z)?log?P(Z∣X,θ)q(Z)\begin{align} \log P(X|\theta)&=\log \frac{P(X,Z|\theta)}{P(Z|X,\theta)}\\ &=\log P(X,Z|\theta)-\log P(Z|X,\theta)\\ &=\log \frac{P(X,Z|\theta)}{q(Z)}-\frac{\log P(Z|X,\theta)}{q(Z)} \end{align} logP(Xθ)?=logP(ZX,θ)P(X,Zθ)?=logP(X,Zθ)?logP(ZX,θ)=logq(Z)P(X,Zθ)??q(Z)logP(ZX,θ)???

  • 第一步先從似然,引入隱變量 ZZZ ,根據聯合概率分布的公式進行改寫;

  • 然后通過對數的性質寫開;

  • 引入關于 ZZZ 的概率分布 q(Z)q(Z)q(Z) ,兩個對數里面同時除 q(Z)q(Z)q(Z)

  • 然后兩邊同時求關于 q(Z)q(Z)q(Z) 的期望

左邊=∫Zq(Z)log?P(X∣θ)dZ=log?P(X∣θ)∫Zq(Z)dZ=log?P(X∣θ)×1左邊=\int_Zq(Z)\log P(X|\theta)dZ=\log P(X|\theta)\int_Zq(Z)dZ=\log P(X|\theta)\times1 左邊=Z?q(Z)logP(Xθ)dZ=logP(Xθ)Z?q(Z)dZ=logP(Xθ)×1

  • 左邊原來就與 ZZZ 無關,相當于對常數求期望,不變

右邊=∫Zq(Z)log?P(X,Z∣θ)q(Z)dZ?∫Zq(Z)log?P(Z∣X,θ)q(Z)dZ=ELBO+KL(q(Z)∣∣P(Z∣X,θ))\begin{align} 右邊&=\int_Zq(Z)\log \frac{P(X,Z|\theta)}{q(Z)}dZ-\int_Zq(Z)\log\frac{ P(Z|X,\theta)}{q(Z)}dZ\\ &=ELBO+KL(q(Z)||P(Z|X,\theta))\\ \end{align} 右邊?=Z?q(Z)logq(Z)P(X,Zθ)?dZ?Z?q(Z)logq(Z)P(ZX,θ)?dZ=ELBO+KL(q(Z)∣∣P(ZX,θ))??

  • 右邊也求期望后,后一項是 q(Z)q(Z)q(Z)P(Z∣X,θ)P(Z|X,\theta)P(ZX,θ) 的相對熵,也就是 KL 散度。而前一項我們通常稱為 ELBO (Evidence Lower BOund)證據下界。很明顯的, KL 散度是恒正的,因此前一項 ELBO 是 log?P(X∣θ)\log P(X|\theta)logP(Xθ) 的一個下界。當且僅當后一項相對熵為零,即兩個分布完全相同 q(Z)=P(Z∣X,θ(t))q(Z)=P(Z|X,\theta^{(t)})q(Z)=P(ZX,θ(t)) 時取到等號。

    EM 算法的思想就是通過使得 ELBO 取得最大,從而使得對數似然 log?P(X∣θ)\log P(X|\theta)logP(Xθ) 也達到最大。即:

θ^=arg?max?θELBO=arg?max?θ∫Zq(Z)log?P(X,Z∣θ)q(Z)dZ=arg?max?θ∫ZP(X,Z∣θ(t))log?P(X,Z∣θ)P(X,Z∣θ(t)))dZ=arg?max?θ∫ZP(X,Z∣θ(t))[log?P(X,Z∣θ)?log?P(X,Z∣θ(t)))]dZ=arg?max?θ∫ZP(X,Z∣θ(t))log?P(X,Z∣θ)dZ\begin{align} \hat{\theta}&=\arg\max_{\theta}ELBO\\ &=\arg\max_{\theta}\int_Zq(Z)\log \frac{P(X,Z|\theta)}{q(Z)}dZ\\ &=\arg\max_{\theta}\int_ZP(X,Z|\theta^{(t)})\log \frac{P(X,Z|\theta)}{P(X,Z|\theta^{(t)}))}dZ\\ &=\arg\max_{\theta}\int_ZP(X,Z|\theta^{(t)})[\log P(X,Z|\theta)-\log P(X,Z|\theta^{(t)}))]dZ\\ &=\arg\max_{\theta}\int_ZP(X,Z|\theta^{(t)})\log P(X,Z|\theta)dZ\\ \end{align} θ^?=argθmax?ELBO=argθmax?Z?q(Z)logq(Z)P(X,Zθ)?dZ=argθmax?Z?P(X,Zθ(t))logP(X,Zθ(t)))P(X,Zθ)?dZ=argθmax?Z?P(X,Zθ(t))[logP(X,Zθ)?logP(X,Zθ(t)))]dZ=argθmax?Z?P(X,Zθ(t))logP(X,Zθ)dZ??

  • q(Z)=P(Z∣X,θ(t))q(Z)=P(Z|X,\theta^{(t)})q(Z)=P(ZX,θ(t)) 時取到等號,代入進去
  • 在經過一次變換后,我們發現中括號中后面一項與 θ\thetaθ 無關,因此丟掉。注意,在迭代算法中 θ(t),θ(t+1)\theta^{(t)},\theta^{(t+1)}θ(t),θ(t+1) 都是常數,θ\thetaθ 才是變量
  • 最終得到了 EM 的公式

EM算法的導出——Jensen不等式

下面我們再從 Jensen 不等式的角度來進行推導。

先來介紹一下 Jensen 不等式,這里只介紹 EM 算法推導需要用到的程度:

c=ta+(1?t)bc=ta+(1-t)bc=ta+(1?t)b,對于一個凸函數 f(x)f(x)f(x) 來說,有 f(c)=f(ta+(1?t)b)≥tf(a)+(1?t)f(b)f(c)=f(ta+(1-t)b)\ge tf(a)+(1-t)f(b)f(c)=f(ta+(1?t)b)tf(a)+(1?t)f(b)

我們如果取 t=12t=\frac{1}{2}t=21? ,則有 f(12a+12b)≥12f(a)+12f(b)f(\frac{1}{2}a+\frac{1}{2}b)\ge\frac{1}{2}f(a)+\frac{1}{2}f(b)f(21?a+21?b)21?f(a)+21?f(b) 。即對凸函數來說,均值的函數值大于等于函數值的均值。而在概率論中,均值就是期望,即有 f(E)≥Ef()f(\mathbb{E})\ge\mathbb{E}f()f(E)Ef()

下面開始推導:
log?P(X∣θ)=log?∫ZP(X,Z∣θ)dZ=log?∫ZP(X,Z∣θ)q(X)q(Z)dZ=log?Eq(z)[P(X,Z∣θ)q(Z)]≥Eq(z)log?[P(X,Z∣θ)q(Z)]\begin{align} \log P(X|\theta)&=\log\int_ZP(X,Z|\theta)dZ\\ &=\log\int_Z\frac{P(X,Z|\theta)}{q(X)}q(Z)dZ\\ &=\log\mathbb{E}_{q(z)}[\frac{P(X,Z|\theta)}{q(Z)}]\\ &\ge \mathbb{E}_{q(z)}\log[\frac{P(X,Z|\theta)}{q(Z)}]\\ \end{align} logP(Xθ)?=logZ?P(X,Zθ)dZ=logZ?q(X)P(X,Zθ)?q(Z)dZ=logEq(z)?[q(Z)P(X,Zθ)?]Eq(z)?log[q(Z)P(X,Zθ)?]??

  • 同樣是引入隱變量 ZZZ, 這次轉換為對聯合概率分布積分的形式;
  • 變形,上下同乘 q(X)q(X)q(X)
  • 我們通常講積分寫成期望的形式;
  • log 函數是凸函數,這里使用 Jensen 不等式,其實這里得到的期望就是 ELBO

這里的等號當且僅當 P(X,Z∣θ)q(Z)\frac{P(X,Z|\theta)}{q(Z)}q(Z)P(X,Zθ)? 是常數時取到,即:
P(X,Z∣θ)q(Z)=Cq(Z)=1CP(X,Z∣θ)∫Zq(Z)dZ=∫Z1CP(X,Z∣θ)dZ1=1C∫ZP(X,Z∣θ)dZ=1CP(X∣θ)\frac{P(X,Z|\theta)}{q(Z)}=C\\ q(Z)=\frac{1}{C}P(X,Z|\theta)\\ \int_Zq(Z)dZ=\int_Z\frac{1}{C}P(X,Z|\theta)dZ\\ 1=\frac{1}{C}\int_ZP(X,Z|\theta)dZ=\frac{1}{C}P(X|\theta) q(Z)P(X,Zθ)?=Cq(Z)=C1?P(X,Zθ)Z?q(Z)dZ=Z?C1?P(X,Zθ)dZ1=C1?Z?P(X,Zθ)dZ=C1?P(Xθ)

  • 做一個變形;
  • 等式兩邊同時對 ZZZ 求積分;
  • 左邊就是 1,右邊把 ZZZ 積掉;
  • 得到 C=P(X∣θ)C=P(X|\theta)C=P(Xθ),代回到原式中:

P(X,Z∣θ)q(Z)=P(X∣θ)q(Z)=P(X,Z∣θ)P(X∣θ)=P(Z∣X,θ)\frac{P(X,Z|\theta)}{q(Z)}=P(X|\theta)\\ q(Z)=\frac{P(X,Z|\theta)}{P(X|\theta)}=P(Z|X,\theta) q(Z)P(X,Zθ)?=P(Xθ)q(Z)=P(Xθ)P(X,Zθ)?=P(ZX,θ)

可以看到 q(Z)q(Z)q(Z) 就是后驗 P(Z∣X,θ(t))P(Z|X,\theta^{(t)})P(ZX,θ(t)) ,這與我們在上一小節的結論是一致的,再后面就與上一小節一樣了,不在贅述。

Ref

  1. 統計學習方法——李航
  2. 機器學習白板推導

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/532414.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/532414.shtml
英文地址,請注明出處:http://en.pswp.cn/news/532414.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

詳解最大似然估計(MLE)、最大后驗概率估計(MAP),以及貝葉斯公式的理解

詳解最大似然估計(MLE)、最大后驗概率估計(MAP),以及貝葉斯公式的理解 聲明:本文為原創文章,發表于nebulaf91的csdn博客。歡迎轉載,但請務必保留本信息,注明文章出處。 本…

elemntui icon 大小_自定義elementui中的圖標

前提elementui圖標庫圖標較少當你想用elementui的控件而不想用它的圖標時,就可以使用自定義的方式來實現實現el-icon-my-export為我自定義的圖標命名導出//使用圖片來替換//before屬性中的content文本是用來占位的,必須有//可以設置字體大小來確定大小//使用visibil…

變分推斷公式推導

變分推斷公式推導 背景介紹 機器學習中的概率模型可分為頻率派和貝葉斯派。頻率派最終是求一個優化問題,而貝葉斯派則是求一個積分問題。 頻率派 舉幾個例子: 線性回歸 樣本數據:{(xi,yi)}i1N\{(x_i,y_i)\}_{i1}^N{(xi?,yi?)}i1N? 模…

重新打開_iPhone 應用停止響應或無法打開的解決辦法

如果當您在 iPhone 上使用某個重要應用時,遇到應用停止響應、意外退出或無法打開的問題,請參考如下步驟嘗試解決:1.強制退出應用:在 iPhone 后臺強制關閉該應用之后,再次重新打開看看。2.重啟您的設備,然后…

機器學習理論——優雅的模型:變分自編碼器(VAE)

機器學習理論——優雅的模型:變分自編碼器(VAE) 轉自:機器學習理論—優雅的模型(一):變分自編碼器(VAE) 另外直觀理解 VAE, 推薦 臺大李宏毅老師的課程&#…

grub引導項修復詳解_重新安裝win7后,修復Grub啟動項

重新安裝win7后,修復Grub啟動項發布時間:2010-09-14 22:14:00來源:紅聯作者:null925[is] 本帖最后由 null925 于 2010-9-14 22:18 編輯 [/i]原先使用Win7,Gentoo,Ubuntu三系統,Grub作為系統引導管理器,今天重新安裝Win…

基于流的(Flow-based)生成模型簡介

基于流的(Flow-based)生成模型簡介 生成任務 我們先回顧一下所謂的生成任務,究竟是做什么事情。我們認為,世界上所有的圖片,是符合某種分布 pdata(x)p_{data}(x)pdata?(x) 的。當然,這個分布肯定是個極其復雜的分布。而我們有一…

iec60870-5-104通訊協議編程_三菱FX編程口通訊協議1——協議解讀

三菱PLC編程口通訊協議:1、三菱PLC編程口通訊協議有四個命令,如下:2、三菱FX系列PLC地址對應表:PLC_X Group Base AddRess128;Const PLC_Y_Group Base AddRess160;M _Group Base_AddRess 256;P…

采用ODP.NET 批量進行數據同步

因開發、測試場景經常需要模擬機生產環境的數據,原同事開發了一個ado.net圖形化同步工具,對非技術人員操作友好,但對技術員使用并不方便,每次同步需源庫數據與目標的數據源字段進行配置,且同步大數據時慢,因…

熔斷器熔斷時間標準_一種熔斷器熔斷時間測試電路的制作方法

本實用新型涉及汽車制造技術領域,尤其涉及一種熔斷器熔斷時間測試電路。背景技術:伴隨著日新月異的科技進步,人們對生活質量的追求也越來越高,汽車已經成為人們日常出行必不可少的交通工具,人們對汽車的舒適性、安全性…

DETR精讀筆記

DETR精讀筆記 論文:End-to-End Object Detection with Transformers (發表于 ECCV-2020) 代碼:https://github.com/facebookresearch/detr 解讀視頻:DETR 論文精讀【論文精讀】 本筆記主要基于 Yi Zhu 老師的解讀 引言…

lcd像素點密度_【教程】設置添加LCD密度(DPI)設置

該樓層疑似違規已被系統折疊 隱藏此樓查看此樓完美—————————————————分割————————————————————————反編譯settings.apk(1.52)1.Settings.apk\res\values\arrays.xml在之前加入以下代碼240242244246248250252254256258260262264266268…

GAN網絡評估指標:IS、FID、PPL

GAN網絡評估指標:IS、FID、PPL 轉自:IS、FID、PPL,GAN網絡評估指標 另外關于GAN的評價指標,推薦李宏毅老師的視頻:【機器學習2021】生成式對抗網路 (Generative Adversarial Network, GAN) (三) – 生成器效能評估與條…

降維后輸入分類器分類時報錯_邏輯回歸解決多分類方法及其優缺點分析

眾所周知,邏輯回歸常用于解決二分類任務,但是在工作/學習/項目中,我們也經常要解決多分類問題。本文總結了 3 種邏輯回歸解決多分類的方法,并分析了他們的優缺點。一、One-Vs-Rest假設我們要解決一個分類問題,該分類問…

淺談 PyTorch 中的 tensor 及使用

淺談 PyTorch 中的 tensor 及使用 轉自:淺談 PyTorch 中的 tensor 及使用 這篇文章主要是圍繞 PyTorch 中的 tensor 展開的,討論了張量的求導機制,在不同設備之間的轉換,神經網絡中權重的更新等內容。面向的讀者是使用過 PyTorch …

簡述springmvc過程_spring mvc的工作流程是什么?

展開全部SpringMVC工作流程描述向服務器發送HTTP請求,請求被前端控制器 DispatcherServlet 捕獲。DispatcherServlet 根據 -servlet.xml 中的配置對請62616964757a686964616fe59b9ee7ad9431333365646233求的URL進行解析,得到請求資源標識符(URI)。 然后根…

PyTorch 的 Autograd

PyTorch 的 Autograd 轉自:PyTorch 的 Autograd PyTorch 作為一個深度學習平臺,在深度學習任務中比 NumPy 這個科學計算庫強在哪里呢?我覺得一是 PyTorch 提供了自動求導機制,二是對 GPU 的支持。由此可見,自動求導 (a…

商場樓層導視牌圖片_百寶圖商場電子導視軟件中預約產品功能簡介

百寶圖商場電子導視軟件中預約產品功能簡介 管理端,可配合百寶圖商場電子導視軟件配套使用 1:數據展示:圖形展示總預約數/預約時間峰值/預約途徑/各途徑數量對比 2:數據統計:有效預約數量/無效預約數量/無效預約原因備…

Pytorch autograd.grad與autograd.backward詳解

Pytorch autograd.grad與autograd.backward詳解 引言 平時在寫 Pytorch 訓練腳本時,都是下面這種無腦按步驟走: outputs model(inputs) # 模型前向推理 optimizer.zero_grad() # 清除累積梯度 loss.backward() # 模型反向求導 optimizer.step()…

相對熵與交叉熵_熵、KL散度、交叉熵

公眾號關注 “ML_NLP”設為 “星標”,重磅干貨,第一時間送達!機器學習算法與自然語言處理出品公眾號原創專欄作者 思婕的便攜席夢思單位 | 哈工大SCIR實驗室KL散度 交叉熵 - 熵1. 熵(Entropy)抽象解釋:熵用于計算一個隨機變量的信…