bagging、boosting、stacking区别和偏差,方差的关系
(1) bagging又放回样本生成学习器,boosting全部样本训练串行生成学习器
(2) bagging降低方差,boosting保证低的偏差
(3) 偏差是对数据的拟合程度,方差是对训练数据的抗干扰能力
(4) 方式,过程,结果
(5) 从样本选择上,样例权重,预测函数,并行计算方面回答
(6) 如何剪枝
① 预剪枝,决策树生成过程中,对每个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点
② 后剪枝,从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升,则将该子树替换为叶结点
当前页面是本站的「Google AMP」版。查看和发表评论请点击:完整版 »