首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 234 毫秒
1.
现有基于变精度粗糙集模型的决策树生成算法具有如下不足:有些叶子结点上覆盖的实例数太少,导致这些叶子结点的泛化能力太小而没有意义;不能很好地处理不一致的实例集.为解决上述问题,引入属性是否具有决策类这一概念,较好地避免了决策树的过剩生长,使得生成的决策树有较好的泛化能力.给出新的终止条件,即时地终止不一致实例集的生长.在此基础上,给出新的终止条,提出了一种新的基于变精度粗糙集的决策树生成算法.用一实例说明了新算法的效率得到提高.  相似文献   

2.
集成学习通过将若干弱分类器集成以取得比单个弱分类器更好的性能,是机器学习的重要研究方向。针对常用城市地理模拟系统中元胞自动机转换规则获取算法的局限性,本文提出基于集成学习算法的元胞自动机,并将其应用于城市建设用地的动态模拟。以决策树作为弱分类器,应用集成学习算法和元胞自动机,对东莞市2001年到2005年的建设用地时空格局进行了模拟,取得了较好的模拟效果。精度评估结果表明,经集成学习后的决策树比单个决策树对城市建设用地动态的模拟精度更高,算法泛化能力更好。  相似文献   

3.
粗糙集和决策树都属于归纳学习方法,都可以从一个离散值决策表中抽取出规则.本文从算法过程、计算复杂性、规则个数、泛化能力、稳健性几个方面对粗糙集和决策树进行了比较研究,得出了一些重要结论,能为相关研究提供一些有价值的参考.  相似文献   

4.
基于变精度粗糙集模型,对文献[3]提出的生成决策树方法进行改进,把变精度加权平均粗糙度作为属性选择标准,提出一种构造决策树新算法.新算法用变精度近似精度来代替近似精度,能有效地克服噪声数据在构造决策树过程中对刻画精度的影响,使生成的决策树复杂性降低,泛化能力更强.  相似文献   

5.
油田水淹级别的判定对于寻找剩余油、提高油田开发水平和稳油控水效果至关重要.本文提出了一种基于Boosting的C4.5决策树算法用于油田水淹层识别.实验结果表明,相比单一的C4.5决策树,经Boosting算法提升后的集成C4.5分类器具有较高的识别率和泛化能力,具有较高的应用推广价值.  相似文献   

6.
将数据挖掘中的决策树与粗糙集理论进行了有机结合,提出了一种基于粗糙集技术的决策树构造算法,并将该算法应用于胶合板缺陷检测.通过粗糙集属性约简,找出造成胶合板缺陷的关键因素;再基于约简后的决策表,使用该决策树算法构建决策树,从而提取分类规则,指导决策过程.通过实验验证了,该算法可以有效对胶合板的缺陷进行检测.  相似文献   

7.
焦树军  安志江 《科技信息》2011,(25):I0086-I0087
决策树归纳是归纳学习的一种。由于NP困难,寻找最优的决策树是不现实的,从而探索各种启发式算法去产生一个高精度的决策树变成了这类研究的焦点。考虑到支持向量机(SVM)的分类间隔与泛化能力的关系,可以使用SVM的最大间隔作为生成决策树的启发式信息,使得决策树有较强的泛化能力。本文针对实值型数据,提出了一种基于最大间隔的决策树归纳算法。实验结果表明了本文算法的有效性。  相似文献   

8.
李晋  顾宏斌  潘湑 《科技信息》2010,(28):270-271
决策树学习策略广泛应用于模式识别和机器学习等领域,用来解决与分类相关的问题。决策树剪枝的作用是简化决策树,提高决策树的泛化能力,避免对训练集的过适应,是决策树学习中的重要研究内容。本文详细介绍了数据挖掘算法中的C4.5算法的基本思想,并且对REP剪枝技术进行分析,以此对C4.5算法进行剪枝。实验表明改进的C4.5算法与原C4.5算法相比能很好地处理训练集的非平衡性,并降低决策树的规模,效率得到提高。  相似文献   

9.
改进的集成神经网络学习优化研究   总被引:1,自引:0,他引:1  
AdaBoosting算法是一种集成学习算法,用来提高不稳定学习器的泛化能力.本文基于神经网络是一种不稳定分类器的机理结合最小二乘算法和遗传算法,提出了对集成神经网络分类器权值进行优化的新方法.  相似文献   

10.
【目的】提高高速公路交通事故黑点判别精度。【方法】基于高速公路交通事故数据,融合异常驾驶行为数据与高速公路特征点数据,创建高速公路黑点特征数据集,并将集成学习的CatBoost算法应用于G4高速公路湖南段交通事故黑点的判别。【结果】与支持向量机、随机森林和梯度提升决策树算法相比,CatBoost在判别高速公路事故黑点上的准确率达到了81%,F1值为0.88,AUC值分别提高了17%、13%和17%,说明其判别效果优于其他3种机器学习算法。【结论】基于多源数据融合的高速公路交通事故黑点判别方法能够有效判别出高速公路存在的事故黑点,并能输出每个相关变量对事故结果的贡献值。研究成果可应用于高速公路事故黑点的筛查,并指导管理人员制定相应的预防措施。  相似文献   

11.
为了平衡集成学习中多样性与准确性之间的关系,并提高决策分类器的泛化能力,提出一种基于负相关学习和AdaBoost算法的支持向量机(SVM)集成学习方法.将负相关学习理论融合到AdaBoost-SVM的训练过程中,利用负相关学习理论计算基分类器间的相关性,并根据相关性的值自适应调整基分类器的权重,进而得到加权后的决策分类器.在UCI数据集中进行仿真,结果表明:相较于传统的负相关集成学习算法和AdaBoost-SVM算法,所提出的方法分类准确率更高,泛化能力更好.  相似文献   

12.
为解决多类分类问题,在分析SVM决策树分类器及存在问题的基础上,通过引入类间可分离性测度,并将其扩展到核空间,提出一种改进的SVM决策树分类器。实验表明了该分类算法对提高分类正确率的有效性。  相似文献   

13.
粗糙集在决策树生成中的应用   总被引:20,自引:0,他引:20  
决策树是归纳学习的重要形式,建造高质量的决策树的关键是选择合适的属性,本文针对ID3算法对属性间的相依性强调不够等问题,利用粗糙集理论,提出了一种新的启发式函数-分辩率构造决策树。  相似文献   

14.
【目的】为研究符合党政机关辅助决策特点的决策辅助系统,帮助领导快速、准确收集查找决策辅助信息,提高党政机关领导决策效率和准确性。【方法】基于内容推荐和余弦相似度算法设计了决策信息检索引擎,并结合决策信息库、用户决策特征库、决策信息采集子系统、决策信息推送子系统设计研发了领导决策辅助系统。【结果】系统在党政机关的决策辅助系统中进行了应用验证。系统可根据领导输入的关键字及领导的关注偏好进行决策辅助信息推送,推送结果准确率较高,符合辅助领导决策预期。【结论】基于内容推荐和余弦相似度算法的领导决策辅助信息系统根据用户偏好和特征进行决策辅助信息推荐,具有较好的准确性和针对性,开辟了党政机关决策辅助系统设计建设的新思路。  相似文献   

15.
基于粗糙集决策树优化研究   总被引:2,自引:0,他引:2  
决策树分类方法是一种有效的数据挖掘分类方法.单变量决策树结构简单,但规模较大.多变量决策树是为了进一步缩减树的规模而提出的决策树结构,通过选取属性的合理组合作为分裂属性,可使树的规模相对较小.文章在对以往所提出的混合变量决策树算法RSH2的抗噪性差和属性被多次选取等问题进行改进的基础上,提出了基于粗糙集的多变量决策树算法VPMDT.通过与ID3、HACRs、RSH2和C4.5等算法进行的实验比较表明,VPMDT有较好的时空性能,并保持较高的分类预测正确率.  相似文献   

16.
针对绝大部分多变量决策树只能联合数值型属性,而不能直接为带有分类型属性数据集进行分类的问题,提出一种可联合多种类型属性的多变量决策树算法(CMDT).该算法通过统计各个分类型属性的属性值在各个类别或各个簇中的频率分布,来定义样本集合在分类型属性上的中心,以及样本到中心的距离.然后,使用加权k-means算法划分决策树中的非终端结点.使用这种结点划分方法构建的决策树可用于数值型数据、分类型数据以及混合型数据.实验结果表明,该算法建立的分类模型在各种类型的数据集上均获得比经典决策树算法更好的泛化正确率和更简洁的树结构.  相似文献   

17.
【目的】研究常见道路绿化植物的滞尘能力和对粉尘污染的抗性能力,并对植物滞尘效益进行评价。【方法】选取南宁市4种常见行道绿化树种:扁桃(Mangifera persiciformis)、鱼尾葵(Caryota ochlandra),朱槿(Hibiscus rosa-sinensis)、黄金榕(Ficus microcarpa),在南宁市交通繁忙区、建筑工地、工业密集区和相对清洁的对照区对树种叶片的滞尘能力进行测定,选择植物的叶绿素含量变化、净光合速率、蒸腾速率3个光合生理指标分析其抗性。【结果】鱼尾葵的滞尘能力在交通繁忙区和建筑污染区中最强,黄金榕在各污染区中受到的影响相对较小。工业污染区中黄金榕的滞尘能力最高;交通繁忙区中,鱼尾葵的净光合速率和蒸腾速率受影响较大,朱槿的叶绿素含量下降率最高;在建筑污染区和工业污染区,扁桃受到滞尘的影响较大。综合评价4种绿化树种的滞尘效益,交通繁忙区和建筑污染区最高为黄金榕,工业污染区最高为朱槿。【结论】同种植物对不同污染源的抗逆性不同,其滞尘能力也不同。通过综合评价,能较为客观地为南宁绿化树种选择和配制提供参考依据。  相似文献   

18.
基于Rough集的决策树算法   总被引:1,自引:0,他引:1  
针对基于Rough集的经典分类算法值约简算法等不适合大数据集的问题,提出了基于Rough集的决策树算法。采用一个新的选择属性的测度——属性分类粗糙度作为选择属性的启发式,该测度较Rough中刻画属性相关性的测度正区域等更为全面地刻画了属性分类综合贡献能力,并且比信息增益和信息增益率的计算更为简单。采取了一种新的剪枝方法——预剪枝,即在选择属性计算前基于变精度正区域修正属性对数据的初始划分模式,以更有效地消除噪音数据对选择属性和生成叶节点的影响.采取了一种与决策树算法高度融合的简单有效的检测和处理不相容数据的方法,从而使算法对相容和不相容数据都能进行有效处理。对UCI机器学习数据库中几个数据集的挖掘结果表明,该算法生成的决策树较ID3算法小,与用信息增益率作为启发式的决策树算法生成的决策树规模相当。算法生成所有叶节点均满足给定最小置信度和支持度的决策树或分类规则,并易于利用数据库技术实现,适合大数据集。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号