【1】引用
在前序學習進程中,我們初步了解了SVM軟邊界,今天就更進一步,嘗試構建SVM軟邊界的拉格朗日函數。
【2】基本問題
在SVM軟邊界中,我們已經獲得此時的最優化幾何距離的表達式:
f=min?12∣∣w∣∣2+C∑i=1nξif=\min \frac{1}{2}||w||^2+C\sum_{i=1}^{n}\xi_{i}f=min21?∣∣w∣∣2+Ci=1∑n?ξi?
其中,
12∣∣w∣∣2\frac{1}{2}||w||^221?∣∣w∣∣2是距離最大化項;
C∑i=1nξiC\sum_{i=1}^{n}\xi_{i}C∑i=1n?ξi?是錯誤懲罰項且要規定C>0C>0C>0;
ξi\xi_{i}ξi?是松弛變量,表示樣本xix_{i}xi?的違反程度。
此時的約束條件是:
距離函數:yi(w?xi+b)≥1?ξi距離函數:y_{i}(w\cdot x_{i}+b)\geq 1-\xi_{i}距離函數:yi?(w?xi?+b)≥1?ξi?
松弛變量:xi≥0(i=1,2,...,n)松弛變量:x_{i} \geq 0(i=1,2,...,n)松弛變量:xi?≥0(i=1,2,...,n)
【2.1】C>0C>0C>0分析
定義懲罰項C∑i=1nξiC\sum_{i=1}^{n}\xi_{i}C∑i=1n?ξi?的目的是對脫離或違反間隔約束的樣本進行“懲罰”,非常直觀的,松弛變量ξi≥0\xi_{i}\geq 0ξi?≥0,且這個值越大,樣本違反約束的程度也就越重。
當C>0C>0C>0時,ξi\xi_{i}ξi?越大,樣本違反約束的程度越大,整個懲罰項也越大,這與 “違反約束應受到懲罰” 的邏輯一致;
當C=0C=0C=0時,ξi\xi_{i}ξi?越大,樣本違反約束的程度越大,但整個懲罰項恒等于0,所有樣本都可能實際違反約束但未被識別,這與 “違反約束應受到懲罰” 的邏輯矛盾;
當C<0C<0C<0時,ξi\xi_{i}ξi?越大,樣本違反約束的程度越大,但整個懲罰項反而越小,樣本實際違反約束的程度被低估,會影響SVM分類的正確性;
所以從分類準確性來看,應當保持C>0C>0C>0。
【2.2】構造拉格朗日函數
引入拉格朗日乘子αi≥0\alpha_{i}\geq 0αi?≥0對應距離函數;
引入拉格朗日乘子μi≥0\mu_{i}\geq 0μi?≥0對應松弛變量。
獲得拉格朗日函數為:
L(w,b,ξ,α,μ)=12∣∣w∣∣2+C∑i=1nξi?∑i=1nαi[yi(w?xi+b)?1+ξi]?∑i=1nμiξiL(w,b,\xi,\alpha,\mu)=\frac{1}{2}||w||^2+C\sum_{i=1}^{n}\xi_{i}-\sum_{i=1}^{n}\alpha_{i}[y_{i}(w\cdot x_{i}+b)-1+\xi_{i}]-\sum_{i=1}^{n}\mu_{i}\xi_{i}L(w,b,ξ,α,μ)=21?∣∣w∣∣2+Ci=1∑n?ξi??i=1∑n?αi?[yi?(w?xi?+b)?1+ξi?]?i=1∑n?μi?ξi?
【3】總結
初步構建了SVM軟邊界條件下的拉格朗日函數。