在Adaboost算法的基础上,提出了一种改进的Boosting方法来解决分类问题。 此方法将示例的类标签预测为分类器集合的加权多数投票。 每个分类器是通过将给定的弱学习者应用于子样本(大小小于原始训练集的子样本)而获得的,该子样本是根据原始训练集上保持的概率分布从原始训练集中得出的。 在Adaboost中提出的重新加权方案中引入了一个参数,以更新分配给训练示例的概率,从而使算法比Adaboost更加准确。 在UCI资料库中可获得的合成数据集和一些实际数据集上的实验结果表明,该方法提高了Adaboost的预测精度,执行速度以及对分类噪声的鲁棒性。 此外,通过kappa误差图研究了集成分类器的多样性准确性模式。
1