L = 1 n ∑ i = 1 n ( y i ? y ^ i ) 2 L = \frac{1}{n} \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 L=n1?∑i=1n?(yi??y^?i?)2
放大誤差,對離群點敏感
標準線性回歸
平均絕對誤差(MAE)
L = 1 n ∑ i = 1 n ∣ y i ? y ^ i ∣ L = \frac{1}{n} \sum_{i=1}^{n} \vert y_i - \hat{y}_i\vert L=n1?∑i=1n?∣yi??y^?i?∣
抗噪強,優化不穩定
離群點多的回歸
Huber Loss
L = { 1 2 ( y i ? y ^ i ) 2 if? ∣ y i ? y ^ i ∣ ≤ δ δ ∣ y i ? y ^ i ∣ ? 1 2 δ 2 其他 L = \begin{cases} \frac{1}{2}(y_i - \hat{y}_i)^2 & \text{if } \vert y_i - \hat{y}_i\vert \leq \delta \\ \delta \vert y_i - \hat{y}_i\vert - \frac{1}{2}\delta^2 & \text{其他} \end{cases} L={21?(yi??y^?i?)2δ∣yi??y^?i?∣?21?δ2?if?∣yi??y^?i?∣≤δ其他?
平衡 MAE 和 MSE
魯棒回歸任務
Log-Cosh Loss
L = ∑ log ? ( cosh ? ( y ^ ? y ) ) L = \sum \log(\cosh(\hat{y} - y)) L=∑log(cosh(y^??y))
平滑的 MAE
對離群點略魯棒
2. 分類問題
損失函數
公式
特點
適用場景
交叉熵損失(Binary Cross Entropy)
L = ? 1 n ∑ i = 1 n [ y i log ? ( y ^ i ) + ( 1 ? y i ) log ? ( 1 ? y ^ i ) ] L = -\frac{1}{n} \sum_{i=1}^{n} \left[ y_i \log(\hat{y}_i) + (1 - y_i) \log(1 - \hat{y}_i) \right] L=?n1?∑i=1n?[yi?log(y^?i?)+(1?yi?)log(1?y^?i?)]
二分類
邏輯回歸、二分類神經網絡
交叉熵損失(Categorical Cross Entropy)
L = ? 1 n ∑ i = 1 n ∑ j = 1 k y i j log ? ( y ^ i j ) L = -\frac{1}{n} \sum_{i=1}^{n} \sum_{j=1}^{k} y_{ij} \log(\hat{y}_{ij}) L=?n1?∑i=1n?∑j=1k?yij?log(y^?ij?)