是將若干個學習器(分類器&回歸器)組合之后產生一個新學習器。弱分類器(weak learner)指那些分類準確率只稍微好于隨機猜測的分類器(errorrate <。
集成算法的成功在于保證弱分類器的多樣性(Diversity)。而且集成不穩定的算法也能夠得到一個比較明顯的性能提升。
常見的集成學習思想有:Bagging、Boosting、Stacking
為什么需要集成學習
弱分類器間存在一定的差異性,這會導致分類的邊界不同,也就是說可能存在錯誤。那么將多個弱分類器合并后,就可以得到更加合理的邊界,減少整體的錯誤率,實現更好的效果;
對于數據集過大或者過小,可以分別進行劃分和有放回的操作產生不同的數據子集,然后使用數據子集訓練不同的分類器,最終再合并成為一個大的分類器;
如果數據的劃分邊界過于復雜,使用線性模型很
————————————————
版權聲明:本文為CSDN博主「奔跑的大西吉」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/fenglepeng/article/details/104829362