極大似然估計
(Maximum Likelihood Estimation, MLE)和貝葉斯估計(Bayesian Estimation)是統計學中兩種重要的參數估計方法,它們在思想和應用上有著顯著的差異。下面我將詳細對比這兩種方法的思想,并分別舉出相應的參考案例。
文章目錄
- 極大似然估計(MLE)
- 貝葉斯估計(Bayesian Estimation)
- 對比總結
極大似然估計(MLE)
基本思想:
極大似然估計的核心思想是找到一個參數值,使得給定數據出現的概率最大。具體來說,假設有一個數據集 D D D 和一個參數模型 θ \theta θ,極大似然估計的目標是找到使得數據集 D D D 出現的概率 P ( D ∣ θ ) P(D|\theta) P(D∣θ) 最大的參數值 θ \theta θ。
步驟:
- 構建似然函數: 根據數據集 D D D 和模型 θ \theta θ,構建似然函數 L ( θ ) = P ( D ∣ θ ) L(\theta) = P(D|\theta) L(θ)=P(D∣θ)。
- 求解極大值: 通過求解似然函數的極大值,找到使得 L ( θ ) L(\theta) L(θ) 最大的參數值 θ \theta θ。通常通過求導并令導數為零來實現。
參考案例:
假設有一枚硬幣,想要估計這枚硬幣的偏倚程度,即正面朝上的概率 p p p。進行了10次投擲,結果是7次正面朝上,3次反面朝上。
- 似然函數: L ( p ) = p 7 ( 1 ? p ) 3 L(p) = p^7 (1-p)^3 L(p)=p7(1?p)3
- 求解極大值: 對 L ( p ) L(p) L(p) 取對數并求導,得到 d d p [ 7 log ? p + 3 log ? ( 1 ? p ) ] = 0 \frac{d}{dp} [7 \log p + 3 \log (1-p)] = 0 dpd?[7logp+3log(1?p)]=0,解得 p = 0.7 p = 0.7 p=0.7。
貝葉斯估計(Bayesian Estimation)
基本思想:
貝葉斯估計的核心思想是利用貝葉斯定理,將參數 θ \theta θ 視為一個隨機變量,并結合先驗信息和數據來更新參數的分布。具體來說,貝葉斯估計的目標是找到參數 θ \theta θ 的后驗分布 P ( θ ∣ D ) P(\theta|D) P(θ∣D),然后根據后驗分布進行參數估計。
步驟:
- 確定先驗分布: 選擇一個合適的先驗分布 P ( θ ) P(\theta) P(θ),反映對參數 θ \theta θ 的先驗知識。
- 計算后驗分布: 利用貝葉斯定理,計算后驗分布 P ( θ ∣ D ) = P ( D ∣ θ ) P ( θ ) P ( D ) P(\theta|D) = \frac{P(D|\theta)P(\theta)}{P(D)} P(θ∣D)=P(D)P(D∣θ)P(θ)?。
- 進行參數估計: 根據后驗分布 P ( θ ∣ D ) P(\theta|D) P(θ∣D),選擇合適的估計方法(如后驗均值、后驗眾數等)進行參數估計。
參考案例:
同樣考慮硬幣投擲問題,但現在有一個先驗信念,即硬幣的偏倚程度 p p p 服從一個 Beta 分布 B e t a ( 2 , 2 ) Beta(2, 2) Beta(2,2)。進行了10次投擲,結果是7次正面朝上,3次反面朝上。
- 先驗分布: P ( p ) = B e t a ( 2 , 2 ) P(p) = Beta(2, 2) P(p)=Beta(2,2)
- 后驗分布: 根據貝葉斯定理,后驗分布 P ( p ∣ D ) P(p|D) P(p∣D) 也是一個 Beta 分布,具體為 B e t a ( 2 + 7 , 2 + 3 ) = B e t a ( 9 , 5 ) Beta(2+7, 2+3) = Beta(9, 5) Beta(2+7,2+3)=Beta(9,5)。
- 參數估計: 后驗均值 E ( p ∣ D ) = 9 9 + 5 = 9 14 ≈ 0.643 E(p|D) = \frac{9}{9+5} = \frac{9}{14} \approx 0.643 E(p∣D)=9+59?=149?≈0.643。
對比總結
- 參數觀點: MLE 認為參數是固定的,而貝葉斯估計認為參數是隨機的。
- 計算復雜度: MLE 計算相對簡單,而貝葉斯估計通常涉及復雜的積分計算。
- 先驗信息: 貝葉斯估計可以結合先驗信息,而 MLE 僅依賴于數據。
- 結果形式: MLE 提供一個點估計,而貝葉斯估計提供一個參數的分布。
在實際應用中,選擇哪種方法取決于問題的具體情況、可用的先驗信息以及計算資源的限制。