-
邏輯回歸(Logistic Regression):
- 邏輯回歸通過最大化似然函數來估計模型參數,使得觀察到的數據最有可能由模型生成。
-
樸素貝葉斯分類器(Naive Bayes Classifier):
- 樸素貝葉斯使用貝葉斯定理,通過最大化似然估計來計算每個特征在給定類別下的條件概率。
-
高斯混合模型(Gaussian Mixture Model, GMM):
- GMM通過期望最大化(Expectation-Maximization, EM)算法來最大化似然函數,從而估計混合模型的參數。
-
隱馬爾可夫模型(Hidden Markov Model, HMM):
- HMM使用EM算法中的Baum-Welch算法,通過最大化似然估計來學習模型參數。
-
線性判別分析(Linear Discriminant Analysis, LDA):
- LDA在訓練過程中通過最大化似然估計來確定類別條件概率分布的參數。
-
和神經網絡(Neural Networks):
- 在分類任務中,神經網絡使用交叉熵損失函數,交叉熵實際上是負對數似然函數,因此優化過程等價于最大化似然估計。