首页 > 代码库 > 集成学习ensemble
集成学习ensemble
集成学习里面有两大派:Bagging和Boosting,每一派都有其代表性算法,这里给出一个大纲。
先来说下Bagging和Boosting之间的区别:bagging methods work best with strong and complex models (e.g., fully developed decision trees), in contrast with boosting methods which usually work best with weak models (e.g., shallow decision trees).
在说下不同Bagging方法之间的区别:有些子样本是子集,有些子样本是特征。
Bagging-Classifier和Regressor
Bagging
RandomForest
Boosting-Classifier和Regressor
AdaBoost
GradientBoosting
集成学习ensemble
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。