首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
基于粗集的混合变量决策树构造算法研究   总被引:1,自引:1,他引:1  
文章提出混合变量决策树结构,并在此基础上提出基于粗集理论的混合变量决策树构造算法RSH2,算法在每个结点选择尽可能少的属性明确划分尽可能多的实例,减小了决策树规模,且易于理解。将RSH2算法与ID3算法及基于粗集的单变量决策树算法HACRs进行实验比较,结果表明该算法有良好性能。  相似文献   

2.
基于知识粗糙度的多变量决策树的构建   总被引:5,自引:0,他引:5       下载免费PDF全文
提出了一种基于粗糙集中知识粗糙度的构建多变量决策树的算法.基本思想是,在选择了核属性作为决策树的根节点后,将选择知识粗糙度最小的那个条件属性作为下一个分枝结点的检验属性.  相似文献   

3.
本文在ID3算法的基础上引入属性重要度因子和均衡化函数,对ID3算法进行优化,改进了经典ID3算法要求每个属性对类别属性的贡献一样的缺点,可以适用于不同属性对类别属性的贡献不同的情况,同时也弥补ID3算法偏向多值属性的不足。最后给出具体一个实例说明其构造决策树的过程,并将优化算法与经典ID3算法构造的决策树进行了比较,从而得出优化后的算法具有更大的适应范围,且更符合用户实际情况的需要。  相似文献   

4.
一种改进的决策树算法   总被引:1,自引:0,他引:1  
为解决决策树算法ID3的多值偏向的缺点,利用属性相似度偏向少值属性的特点,提出一种将属性相似度作为信息熵的系数的属性选择标准,从而提出相应的决策树生成算法.实验结果表明,新算法既避免了以信息熵作为属性选择标准的决策树算法的多值偏向,也避免了以属性相似度作为属性选择标准的决策树算法的少值偏向.  相似文献   

5.
利用"基于决策类划分的新型多变量决策树算法"中的五大步骤,以"气象信息系统表"为实例构造多变量决策树,取得的结果与著名的单变量决策树(ID3)方法和粗糙集多变量决策树方法所获得的结果相同,证明本算法有效。其决策树构造过程简单,易于理解。通过时间复杂度的比较,证明本算法优于粗糙集算法速度更优和ID3算法。  相似文献   

6.
文章提出一种基于属性重要度的随机决策树构造算法ASRDT,该算法利用粗糙集理论计算每个属性的属性重要度,提升重要属性的影响因子,使得建树过程中随机选择属性时,不同属性之间的区分度得以体现,从而显著提高了算法的抗干扰能力,使ASRST在保持原有RDT算法优点的基础上,更具有良好的分类准确率及稳定性。  相似文献   

7.
基于ROUGH集的决策树测试属性选择方法   总被引:2,自引:2,他引:0  
测试属性的选择直接影响到决策树中结点的个数甚至是深度,因此如何选择测试属性是研究的一个热点。本文主要介绍了粗集理论的方法。通过比较我们会发现,在单变量决策树的构造上,粗集理论中属性重要性的方法计算量较小,而多变量决策树充分考虑了条件属性间的相关性,因此通过求解信息系统的相对核从而减少决策树结点的个数。  相似文献   

8.
决策树简化是决策树学习算法中的一个重要分支。文章以 ID3算法构造的决策树为基础 ,提出了一种高效的简化决策树的算法。算法先序遍历由 ID3构造出来的决策树的各个节点并对其子树进行比较 ,如果各子树的属性都相同而且存在某些相应的分支对于各子树完全相同 ,则改变决策树中相应属性的层次关系并把相同的分支分别合并起来。算法减少了决策树的深度、宽度与叶子数目 ,降低了决策树的规模。尤其对于逻辑表达式的归纳学习 ,简化之后的决策树要明显优于原决策树。  相似文献   

9.
基于决策类划分的多变量决策树算法是一种新型的多变量算法。选取较复杂的实例构建训练集,并用新算法构造决策树,验证算法可行性和便捷性。从优化算法和比配分析两细节入手,有效地提升了算法的准确度,进一步降低了算法的时间复杂程度。  相似文献   

10.
基于粗糙集决策树优化研究   总被引:2,自引:0,他引:2  
决策树分类方法是一种有效的数据挖掘分类方法.单变量决策树结构简单,但规模较大.多变量决策树是为了进一步缩减树的规模而提出的决策树结构,通过选取属性的合理组合作为分裂属性,可使树的规模相对较小.文章在对以往所提出的混合变量决策树算法RSH2的抗噪性差和属性被多次选取等问题进行改进的基础上,提出了基于粗糙集的多变量决策树算法VPMDT.通过与ID3、HACRs、RSH2和C4.5等算法进行的实验比较表明,VPMDT有较好的时空性能,并保持较高的分类预测正确率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号