共查询到10条相似文献,搜索用时 15 毫秒
1.
2.
3.
4.
《江苏大学学报(自然科学版)》2018,(6)
针对Learn++. NSE算法中多个基分类器之间相互独立、未利用前阶段学习结果辅助后续阶段学习而准确率较低的问题,借鉴人类的学习过程,优化Learn++. NSE算法内部的学习机制,转变基分类器的独立学习为渐进学习,提出了一种采用渐进学习模式的SBS-CLearning分类算法.分析了Learn++. NSE算法的不足.给出了SBS-CLearning算法的步骤,该算法在前阶段基分类器的基础之上先增量学习,再完成最终的加权集成.在测试数据集上对比分析了Learn++. NSE与SBSCLearning的分类准确率.试验结果表明:SBS-CLearning算法吸收了增量学习与集成学习的优势,相比Learn++. NSE提高了分类准确率.针对SEA人工数据集,SBS-CLearning,Learn++. NSE的平均分类准确率分别为0. 982,0. 976.针对旋转棋盘真实数据集,在Constant,Sinusoidal,Pulse环境下,SBS-CLearning的平均分类准确率分别为0. 624,0. 655,0. 662,而Learn++. NSE分别为0. 593,0. 633,0. 629. 相似文献
5.
《华中科技大学学报(自然科学版)》2010,(10)
提出了一种自适应代价优化算法ACO,利用"登山式"方法查找最适合重采样数据子集的最优误分类代价值用于建立基分类器,克服了固定式误分类代价不尽科学和客观的缺点,利用重采样技术实现了数据集样本不足时的分类器训练.通过"投票"方式对原始数据集中的实例重新标记类标,学习得到一个适应于类分布不均衡数据集的自适应的集成分类器.实验证明,用自适应代价优化算法实现的分类器在类分布不均衡的数据集上的分类性能明显优于CSC,MetaCost和naive Bayes等建立的分类器. 相似文献
6.
基于K-means聚类和遗传算法的少数类样本采样方法研究 总被引:1,自引:0,他引:1
传统的分类器对不均衡数据集的分类严重倾向于多数类.为了有效地提高不均衡数据集中少数类的分类性能,针对此问题提出了一种基于K-means聚类和遗传算法的少数类样本采样方法.通过K-means算法将少数类样本聚类分组,在每个聚类内使用遗传算法获取新样本并进行有效性验证,最后通过使用KNN和SVM分类器,在仿真实验中证明了方法的有效性. 相似文献
7.
传统的分类算法大多假设数据集是均衡的,追求整体的分类精度.而实际数据集经常是不均衡的,因此传统的分类算法在处理实际数据集时容易导致少数类样本有较高的分类错误率.现有针对不均衡数据集改进的分类方法主要有两类:一类是进行数据层面的改进,用过采样或欠采样的方法增加少数类数据或减少多数类数据;另一个是进行算法层面的改进.本文在原有的基于聚类的欠采样方法和集成学习方法的基础上,采用两种方法相结合的思想,对不均衡数据进行分类.即先在数据处理阶段采用基于聚类的欠采样方法形成均衡数据集,然后用AdaBoost集成算法对新的数据集进行分类训练,并在算法集成过程中引用权重来区分少数类数据和多数类数据对计算集成学习错误率的贡献,进而使算法更关注少数数据类,提高少数类数据的分类精度. 相似文献
8.
《太原师范学院学报(自然科学版)》2017,(4)
为提高不均衡样本中正类的检测率,提出了基于Reweighted思想与成本引导的MisC_S算法.算法赋予样本错分成本参数,迭代产生的多个分类器按加权错误率最小做最优选择,样本权重按分类结果做更新.实验选取六组数据,按R指标进行比较。MisC_S算法较其他算法,R值总体得到了一定幅度的提升,且在Credit_2和Credit_3数据集上提升明显.实验结果表明,MisC_S算法在提高不均衡样本的正类检测率上较有效. 相似文献
9.
《华中科技大学学报(自然科学版)》2017,(12):73-79
综合考虑对海雷达目标识别的高实时性和强泛化能力要求,提出一种利用模拟退火算法(SA)进行集成间隔优化的静态选择集成(SSE)算法.该算法首先利用SA基于集成间隔最大化搜索出不同大小的最优基分类器子集,然后利用集成分类精确度从中筛选出最终的集成分类器系统.进而提出一种分类器权值、样本权值的迭代求解算法,并考虑这两类权值以及基分类器的分类置信度,给出了8种集成间隔定义.在自建全极化高分辨率距离像(HRRP)分类数据集和17个UCI数据集上分析了集成间隔定义对集成算法性能的影响,通过对比实验验证了该算法的有效性. 相似文献
10.
【目的】针对标准协同训练中视图分割不充分冗余导致两个分类器误差累积加大,且两个分类器对同一个未标记样本分类不一致的问题,提出了结合信息增益率和K-means聚类的协同训练算法。【方法】该算法先根据有标记样本计算出数据中每一个特征的信息增益率,将信息增益率高的特征平均划分到两个视图,再在每次分类过程中应用K-means聚类确定标记不一致样本点的最终类别。【结果】通过在9个UCI数据集上的3组实验表明,与对比算法相比,所提算法中两视图分类器的平均正确率差值降低了2.9%,有效均衡了分类器性能,同时在分类准确率和算法稳定性上也有较大提升。【结论】利用信息增益率将关键特征均衡划分到两个视图,有效解决了视图分割不充分冗余问题;K-means聚类重新分类标记不一致的样本,降低了样本被误分类的概率。 相似文献