AdaboostOnMNIST
这是使用两个不同的弱学习者从头开始实现Adaboost算法的方法:决策树分类器和梯度提升分类器。 Adaboost在MNIST上运行以告知奇数和偶数。 经过scikit Learn模型的adaboost测试,并获得了更高的分数。 最小的训练误差为%1.8,在7次迭代中进行了梯度增强。
函数调用为adaboost(X_train,Y_train,inversions_t,Classifier_type),有两种类型的分类器,“ Gradient_Boost”和“ Decision_tree”可以放入第4个输入中。
adaboost返回一个4元组(stump,stump_weights,errors,D_weights)
您可以使用predict(stumps,stump_weights,X_test)对训练集进行预测。 这将返回该X_test的标签数组
2022-06-09 17:13:26
2KB
Python
1