首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
一种新型决策树属性选择标准   总被引:7,自引:0,他引:7  
讨论传统决策树算法中三种常用的基于熵的属性选择标准,提出一种基于属性重要性排序的建立决策树的新方法。该方法在决策树的每个内结点首先依据属性重要性将属性进行排序,然后选择最重要的属性作为分类属性生成决策树,并抽取出规则。与传统的决策树数据分类方法相比,此方法可有效地选择出对于分类最重要的分类属性,增强决策树的抗干扰能力,并提高规则的预测精度。  相似文献   

2.
Fayyad连续值属性决策树学习算法使用信息熵的下降速度作为选取扩展属性标准的启发式,本文针对其易选取重复的条件属性等不足之处,引入属性间的交互信息,提出了一种改进算法--基于交互信息的连续值属性决策树学习算法,它的核心是使用信息熵和交互信息的下降速度作为选取扩展属性标准的启发式.实验结果表明,与Fayyad决策树学习算法相比,该算法降低了决策树中同一扩展属性的重复选取率,实现了信息熵的真正减少,提高了训练精度和测试精度,能构造出更优的决策树.  相似文献   

3.
提出一种基于粗糙集理论的决策树分类算法.首先,将核属性集中的核属性进行合取后加入析取变换,实现属性约简;其次,在决策树构造阶段,对各条件属性分别求其上下近似集,进而得到各属性的近似精度.选择近似精度最大的属性作为决策树的根结点,以此方法递归应用到各子树上来选择决策树的结点并实现决策树的剪枝.实例分析表明,改进的算法提高了决策树方法的效率.  相似文献   

4.
一种改进的决策树算法   总被引:1,自引:0,他引:1  
为解决决策树算法ID3的多值偏向的缺点,利用属性相似度偏向少值属性的特点,提出一种将属性相似度作为信息熵的系数的属性选择标准,从而提出相应的决策树生成算法.实验结果表明,新算法既避免了以信息熵作为属性选择标准的决策树算法的多值偏向,也避免了以属性相似度作为属性选择标准的决策树算法的少值偏向.  相似文献   

5.
测试属性的选取即属性选择标准是构建决策树的关键及核心,对于同样的数据集,不同的属性选取标准构建的决策树有可能差别很大。对于不知采用何种属性选择标准或者没有一种标准适合所处理的数据集,本文提出了一种解决的方法,即多种属性选取标准多数表决优化决策树算法,该算法利用"专家会诊"的思想,构建决策树,具有更广的适应性和更可能高的准确率。  相似文献   

6.
决策树分类是有指导的学习分类过程,首先建立一个模型,其次是利用模型进行分类,即利用生成的决策树对输入数据进行分类。决策树是通过计算信息熵选择分裂属性的,而信息熵正是该属性重要性的度量标量。  相似文献   

7.
为获得网络赌博犯罪行为涉案电子证据的分布规律,针对网络赌博案例库所导出的训练样本集,提出容粗糙集属性约简思想的决策树分类预测算法,由属性约简进行决策树预剪枝,将属性重要性度量融入决策树分支属性结点的选择过程,案例拟合验证表明所建决策树分类模型具有较高的分类预测精度,所获预测规则可有效指导网络赌博案件的侦破。  相似文献   

8.
基于ROUGH集的决策树测试属性选择方法   总被引:2,自引:2,他引:0  
测试属性的选择直接影响到决策树中结点的个数甚至是深度,因此如何选择测试属性是研究的一个热点。本文主要介绍了粗集理论的方法。通过比较我们会发现,在单变量决策树的构造上,粗集理论中属性重要性的方法计算量较小,而多变量决策树充分考虑了条件属性间的相关性,因此通过求解信息系统的相对核从而减少决策树结点的个数。  相似文献   

9.
为寻找最优决策树,对决策树生成方法进行了研究,提出了属性相似度的计算方法,引入了属性相似度,对测试属性进行约简.在此基础上,提出了以属性相似度为启发规则的决策树生成算法.该方法预测精度高,计算简便.  相似文献   

10.
针对ID3决策树生成法中存在的缺点,通过引用属性关联度和代价敏感学习,提出了一种基于属性关联度和代价敏感学习的决策树生成法。该方法利用粗糙集理论对条件属性进行约减,在构建决策树过程中,把属性的关联程度和性价比作为选择分裂结点的依据,利用改进的信息增益方法构建代价敏感决策树。试验结果表明,该方法在分类准确度和生结点总数量上比常用决策树生成方法优越。  相似文献   

11.
ID3算法是决策树归纳中普遍而有效的启发式算法.本文针对ID3算法的不足,给出了一个改进版本,它在选择测试属性时不仅要求该属性和类的交互信息较大,而且要求和祖先结点使用过的属性之间的交互性息尽可能小,从而避免了对冗余属性的选择,实现信息熵的真正减少.在生成树的过程中,设定分类阈值,对树进行剪枝,以避免数据子集过小,使进一步划分失去统计意义.实验结果表明,该算法能构造出比ID3算法更优的决策树.  相似文献   

12.
基于Rough集的决策树算法   总被引:1,自引:0,他引:1  
针对基于Rough集的经典分类算法值约简算法等不适合大数据集的问题,提出了基于Rough集的决策树算法。采用一个新的选择属性的测度——属性分类粗糙度作为选择属性的启发式,该测度较Rough中刻画属性相关性的测度正区域等更为全面地刻画了属性分类综合贡献能力,并且比信息增益和信息增益率的计算更为简单。采取了一种新的剪枝方法——预剪枝,即在选择属性计算前基于变精度正区域修正属性对数据的初始划分模式,以更有效地消除噪音数据对选择属性和生成叶节点的影响.采取了一种与决策树算法高度融合的简单有效的检测和处理不相容数据的方法,从而使算法对相容和不相容数据都能进行有效处理。对UCI机器学习数据库中几个数据集的挖掘结果表明,该算法生成的决策树较ID3算法小,与用信息增益率作为启发式的决策树算法生成的决策树规模相当。算法生成所有叶节点均满足给定最小置信度和支持度的决策树或分类规则,并易于利用数据库技术实现,适合大数据集。  相似文献   

13.
基于粗糙集决策树优化研究   总被引:2,自引:0,他引:2  
决策树分类方法是一种有效的数据挖掘分类方法.单变量决策树结构简单,但规模较大.多变量决策树是为了进一步缩减树的规模而提出的决策树结构,通过选取属性的合理组合作为分裂属性,可使树的规模相对较小.文章在对以往所提出的混合变量决策树算法RSH2的抗噪性差和属性被多次选取等问题进行改进的基础上,提出了基于粗糙集的多变量决策树算法VPMDT.通过与ID3、HACRs、RSH2和C4.5等算法进行的实验比较表明,VPMDT有较好的时空性能,并保持较高的分类预测正确率.  相似文献   

14.
基于粗集论中属性依赖度的ID3改进算法   总被引:3,自引:0,他引:3  
决策树算法是一种重要的数据挖掘方法,ID3算法是最具影响的一种决策树生成算法。介绍了粗集理论的相关概念和传统的ID3算法基本原理,提出了一种以粗集论中的属性依赖度为基础的ID3改进算法,克服了传统ID3算法对取值较多属性的依赖,并通过实例验证该算法的高效性和精确性。改进算法对不同领域中分类预测方向上的数据挖掘均具有一定的参考价值。  相似文献   

15.
对大型旋转机械设备的故障诊断知识获取问题进行了研究,分析了ID3决策树方法及其存在的问题,提出了能够适应于连续型属性的知识获取方法.在产生决策树的过程中,提出了一些控制策略,对产生的决策树和决策规则提出了评价准则,并用实例进行了故障诊断知识获取的说明.  相似文献   

16.
对传统ID3算法的信息熵作近似变换达到简化计算的目的,并针对ID3算法倾向于选择取值较多的属性和排斥属性值分布均匀的属性两个缺点,引入贡献因子来改进ID3算法,使属性选择方法平衡的选择划分属性.实验表明,优化后的属性选择方法降低了分类时间,优化了分类结果并能很好地反映实际情况.  相似文献   

17.
传统的ID3决策树算法存在诸多不足,如计算效率低、多值偏向等,对此,提出了属性值空缺、多值属性的选择以及属性选择标准方面的改进方案,并将加权熵和简化熵引入决策树算法以改进传统ID3算法.实验结果表明,改进后的算法在整体性能方面较目前广泛应用的ID3算法有更优秀的性能表现.  相似文献   

18.
ID3算法的改进和简化   总被引:2,自引:0,他引:2  
针对ID3算法倾向于选择取值较多的属性的缺点,引进属性重要性来改进ID3算法,并根据改进的ID3算法中信息增益的计算特点,利用凸函数的性质来简化该算法.实验表明,优化的ID3算法与原ID3算法相比,在构造决策树时具有较高的准确率和更快的计算速度,并且构造的决策树还具有较少的平均叶子数.  相似文献   

19.
增量决策树算法及复杂度分析   总被引:5,自引:1,他引:5  
介绍了增量决策树算法的基本原理,并从实例费用和信息熵费用两个角度出发,对增量决策树算法的复杂度进行分析.通过实例说明,增量决策树算法能够构造出与ID3算法形态基本相同的决策树.  相似文献   

20.
针对ID3算法偏向于选择取值较多的属性作为测试属性的缺点,引入OneR算法选择属性的相关子集进行分类,降低无关属性和重复属性对分类的影响。实验结果表明,与ID3算法相比优化后的方案提高了ID3算法的分类准确率,降低了分类时间,同时克服了ID3算法的取值偏置问题,优化了分类结果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号