集成学习的四大类(Bagging, Boosting, Stacking,Blending) |
您所在的位置:网站首页 › 公园分为四大类别是什么 › 集成学习的四大类(Bagging, Boosting, Stacking,Blending) |
集成学习(随机森林,AdaBoost)
集成学习Bagging:随机森林Boosting(串行训练):Adaboost; GBDT; XgBooststacking (新的训练数据集和新的测试集)Blending(训练数据划分为训练和验证集+新的训练数据集和新的测试集)
集成学习
集成学习是一种机器学习范式,多个学习器被训练来解决同一个问题。 普通机器学习:从训练数据中学习一个假设。 集成方法:试图构建一组假设并将它们组合起来。 集成方法分类为: Bagging(并行训练):随机森林Boosting(串行训练):Adaboost; GBDT; XgBoostStacking:Blending:或者分类为串行集成方法和并行集成方法 串行模型:通过基础模型之间的依赖,给错误分类样本一个较大的权重来提升模型的性能。并行模型的原理:利用基础模型的独立性,然后通过平均能够较大地降低误差 Bagging:随机森林从训练集从进行子抽样组成每个基模型所需要的子训练集,对所有基模型预测的结果进行综合产生最终的预测结果。 Bagging框架图 训练过程为阶梯状,基模型的训练集按照某种策略每次都进行一定的转化,对所有基模型预测的结果进行线性综合产生最终的预测结果。 stacking是将训练好的所有基模型对训练集进行预测: 其中,第j个基模型对第i个训练样本的预测值将作为新的训练集中第i个样本的第j个特征值。最后基于新的训练集进行训练。同理,预测的过程也要先经过所有基模型的预测形成新的测试集,最后再对测试集进行预测。框架图如下: 将训练数据进行划分,划分之后的训练数据一部分训练基模型,一部分经模型预测后作为新的特征训练元模型。 测试数据同样经过基模型预测,形成新的测试数据。最后,元模型对新的测试数据进行预测。Blending框架图如下所示: 注意:其是在stacking的基础上加了划分数据 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |