a) 您如何实现初始树(A 部分)以及为什么选择您的方法?
为了实现决策树,我们使用了 ID3(迭代二分法 3)启发式。
训练阶段 - 构建决策树:
在 ID3 算法中,我们以原始属性集作为根节点开始。
在算法的每次迭代中,我们遍历剩余集合中每个未使用的属性并计算该属性的熵(或信息增益)。
然后,我们选择具有最小熵(或最大信息增益)值的属性。
然后剩余的属性集被选定的属性分割以生成数据的子集。 该算法继续在每个子集上递归,只考虑以前从未选择过的属性。
测试阶段:在运行时,我们将使用经过训练的决策树对新的未见过的测试用例进行分类,方法是使用此测试用例的值向下处理决策树,以到达告诉我们此测试用例属于哪个类的终端节点。
我选择这种方法是因为以下原因:
它通过选择最佳属性来在每次迭代中拆分数据集,从而使用贪婪方法。
在离散数据上运行非常快(在 3 到 4 分钟内运行)。 但是,
2021-12-14 10:41:15
593KB
Python
1