是將若干個學習習
弱分類器間存在一定的差異性,這會導致分類的邊界不同,也就是說可能存在錯誤。那么將多個弱分類器合并后,就可以得到更加合理的邊界,減少整體的錯誤率,實現更好的效果;
對于數據集過大或者過小,可以分別進行劃分和有放回的操作產生不同的數據子集,然后使用數據子集訓練不同的分類器,最終再合并成為一個大的分類器;
如果數據的劃分邊界過于復雜,使用線性模型很
————————————————
版權聲明:本文為CSDN博主「奔跑的大西吉」的原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/fenglepeng/article/details/104829362