首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >使用决策树(通过ID3训练)预测是否遇到未知属性值时,选择随机子节点是否可以接受?

使用决策树(通过ID3训练)预测是否遇到未知属性值时,选择随机子节点是否可以接受?
EN

Data Science用户
提问于 2017-02-22 18:47:11
回答 1查看 102关注 0票数 2

我正在编写一个决策树,用ID3算法从头开始训练。我希望能够对连续数据进行训练和分类,因此我实现了k均值聚类,并缩小了任何输入训练或预测数据的值范围。

但是,我遇到了这样的问题:在训练过程中没有遇到的属性值,在树的某个深节点中遇到,但在更高的位置上存在。具有此特定属性值的所有数据点都可能最终出现在树的不同分支上。

因此,为了‘解决’这个问题,每当遇到节点的未知属性值时,我就将其发送到一个随机存在的分支中。

我得到95.45%的准确性使用随机分割85%-15%的训练-测试数据与虹膜.

这是一个可以接受的方法,还是我在这里出了什么问题?

下面是代码:https://github.com/jamalmoir/ml_组件/blob/主/毫升_组成部分/模型/决定_tree.py

谢谢

EN

回答 1

Data Science用户

回答已采纳

发布于 2017-02-23 03:05:48

您的叶节点是否返回概率分布,而不是单个类值,例如到达节点的大多数训练实例?如果是这样的话,一个更好的方法是将测试实例发送到每个子路径,并平均树叶返回的概率分布。

你在虹膜数据上的好分数95.45%告诉我,在这个例子中,这不是一个非常重要的细节。尝试一些更具挑战性的数据集,看看它是否起作用。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/17119

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档