首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
为了解决支持向量机应用于多类别模拟故障诊断时泛化性能较低导致诊断精度难以提高的问题,提出了一种基于支持向量机集成的模拟电路故障诊断新方法.首先,通过将本次迭代中不可分区域的样本加入训练集来构造下一次迭代的训练集,以提高基分类器间的差异性;然后选择分类精度不低于平均分类精度的基分类器进行集成,以提高整体诊断精度.实验表明...  相似文献   

2.
该文提出一种基于边界支持向量的自适应增量支持向量机,对每轮训练的样本集提取其边界支持向量,从而减少训练向量数目,提高训练效率.通过自适应调整参数,可以更好地适应新增样本.采用UCI(University of California Irvine)机器学习数据库和Statlog数据库对本文方法进行验证,实验结果表明本文方法的训练时间优于标准支持向量机和一般增量支持向量机.其分类精度也明显优于一般增量支持向量机,在训练数据较少时,其分类精度与标准支持向量机相差不大,但随着训练数据的增加,分类精度逐渐超越标准支持向量机.该文的方法更适合大规模数据集的增量学习.  相似文献   

3.
分析了增量学习过程中支持向量和非支持向量的转化情况。在此基础上提出一种误分点回溯SVM增量算法,该算法先找出新增样本中被误分的样本,然后在原样本集寻找距误分点最近的样本作为训练集的一部分,重新构建分类器,这样能有效保留样本的分类信息。实验结果表明:该算法比传统的支持向量机增量算法有更高的分类精度。  相似文献   

4.
融合样本选择与特征选择的AdaBoost支持向量机集成算法   总被引:2,自引:0,他引:2  
为提高AdaBoost分类器集成算法的分类精确度并简化分类系统的复杂度,提出一种融合样本选择与特征选择的AdaBoost支持向量机集成算法(IFSelect-SVME)。该算法在AdaBoost算法的每个循环中利用加权免疫克隆样本选择算法进行样本选择,并用互信息顺序向前特征选择算法进行特征选择,再利用每个循环优化选择得到的特征样本子集训练个体SVM分类器,并对其进行加权集成,生成最终的决策系统。对实验所用9组UCI数据集的仿真结果表明:与支持向量机集成(SVME)算法相比,IFSelect-SVME算法的正确分类率有所提高,且样本数可减少30.8%~80.0%,特征数可减少32.2%~81.5%,简化了集成结构,缩短了测试样本的分类时间,所得到的分类系统具有更好的分类精度。  相似文献   

5.
针对模糊支持向量机(FSVM)应用于数据挖掘分类中存在对大样本集训练速度及分类速度慢的缺点,提出一种改进的数据挖掘模糊支持向量机分类算法.该算法首先预选有效的候选支持向量缩减训练样本集的规模提高训练速度;其次提出一种新的模糊隶属度函数,增强支持向量对构建模糊支持向量机最优分类超平面的作用,并用经过预选的训练样本集进行训练FSVM得到支持向量集;最后,运用粒子群优化算法选择最优支持向量子集,使用平均分类误差作为适应度函数,最终粒子输出时,将样本隶属度与设定阈值相比较,选择出支持向量集中相对较大隶属度的样本作为新的支持向量,提高分类速度.实验结果表明,该算法在不损失分类精度的情况下,提高了模糊支持向量机的训练速度和分类速度.  相似文献   

6.
针对自训练半监督支持向量机算法中的低效问题,采用加权球结构支持向量机代替传统支持向量机,提出自训练半监督加权球结构支持向量机。传统支持向量机需要求解二次凸规划问题,在处理大规模数据时会消耗大量存储空间和计算时间,特别是在多分类问题上更加困难。利用球结构支持向量机进行多类别分类,大大缩短了训练时间,降低了算法复杂度。球结构支持向量机在不同类别样本数目不均衡时训练分类错误倾向于样本数目较小的类别,通过权值的引入,降低了球结构支持向量机对样本不均衡的敏感性,补偿了类别差异对算法推广性能造成的不利影响。在人工数据集和UCI(university of california irvine)数据集上的实验结果表明,该方法对有标记样本的鲁棒性较好,不仅能够提高效率,且分类精度也有显著提高。  相似文献   

7.
支持向量机(SVM)是一种新的机器学习方法,已经广泛应用于模式识别和函数估计等问题中.针对现有的加权支持向量机(WSVM)和模糊支持向量机(FSVM)只考虑样本重要性而没有考虑属性重要性对分类结果的影响的缺陷,提出了基于样本属性重要度的支持向量机方法,该方法首先利用信息论中的信息增益技术计算各个样本特征属性对分类属性的重要度,然后对所有样本的同一特征属性的值分别用对应的属性重要度进行加权,最后所得数据集用于训练和测试SVM.数值实验的结果表明,该方法提高了分类器的分类精度.  相似文献   

8.
一种基于距离比值的支持向量机增量训练算法   总被引:1,自引:0,他引:1       下载免费PDF全文
由于支持向量机具有较好地学习性能和泛化能力,目前已经得到了广泛的应用。如何使支持向量机进行有效的增量学习是目前支持向量机应用中需要解决的问题。深入研究了支持向量分布特点,提出了一种新的支持向量机增量训练淘汰机制——距离比值算法。该算法根据遗忘规则,设定一个合适的参数,按距离比值法中的定义计算各个样本中心距离与其到最优分类面距离的比值,舍弃对后续训练影响不大的样本,即可对训练数据进行有效的淘汰。对标准数据集的实验结果表明,使用该方法进行增量训练在保证分类精度的同时,能有效地提高训练速度。  相似文献   

9.
为解决基于内容的图像检索中训练集样本过小问题,本文提出一种结合相关反馈和支持向量机的主动学习算法,首先计算未标注样本到分类超平面的距离以及与当前训练集中样本的余弦距离和,然后取具有总的最大余弦距离同时到超平面距离最短的样本加入训练集,通过增加最具信息的样本到训练集,使得分类器可通过少量反馈次数而快速达到较高的准确性.试验表明,本文算法能有效提高分类器的分类精度和泛化能力,在减少评价样本数量的前提下,可快速收敛于用户定义的目标查询概念.  相似文献   

10.
基于支持向量机的增量学习算法   总被引:1,自引:0,他引:1  
通过对支持向量机KKT条件和样本间关系的研究,分析了新增样本加入训练集后支持向量的变化情况,提出一种改进的Upper Limiton Increment增量学习算法.该算法按照KKT条件将对应的样本分为3类:位于分类器间隔外,记为RIG;位于分类间隔上,记为MAR;位于分类间隔内,记为ERR.并在每次训练后保存ERR集,将其与下一个增量样本合并进行下一次训练.实验证明了该算法的可行性和有效性.  相似文献   

11.
为了解决经典支持向量机方法已发现的执行时间长、执行效率低的相关问题,提出基于增量学习向量的支持向量机学习方法。该算法通过对训练样本集合的相关增量学习向量进行训练学习来得到初始支持向量机分类器。利用该初始化分类器在有关条件下针对初始训练样本集进行缩减得到精简缩小集,再应用精简缩小集针对初始支持向量机的分类器反向加工来得到支持向量机的最终分类器。该算法可大幅度降低大容量数据集上支持向量机的学习时间,并且具有很好的泛化能力。为了验证本学习方法的可应用性,从Berkeley图像分割数据集BSDS500和互联网上选取相关彩色图像进行仿真实验。该文实验结果表明:该方法得到分割结果的过程不仅比传统支持向量机耗时少,且与Berkeley图像分割数据集中人工标注结果比较得到较好分割效果。  相似文献   

12.
为了解决经典支持向量机方法已发现的执行时间长、执行效率低的相关问题,提出基于增量学习向量的支持向量机学习方法。该算法通过对训练样本集合的相关增量学习向量进行训练学习来得到初始支持向量机分类器。利用该初始化分类器在有关条件下针对初始训练样本集进行缩减得到精简缩小集,再应用精简缩小集针对初始支持向量机的分类器反向加工来得到支持向量机的最终分类器。该算法可大幅度降低大容量数据集上支持向量机的学习时间,并且具有很好的泛化能力。为了验证本学习方法的可应用性,从Berkeley图像分割数据集BSDS500和互联网上选取相关彩色图像进行仿真实验。该文实验结果表明:该方法得到分割结果的过程不仅比传统支持向量机耗时少,且与Berkeley图像分割数据集中人工标注结果比较得到较好分割效果。  相似文献   

13.
针对直推式支持向量机错误累积及获取无标记样本空间信息慢的问题,结合Tri-training算法、KKT条件及富信息策略提出一种基于Tri-training的直推式支持向量机算法,用KKT条件选择标注样本,用富信息策略选择加入的分类器,利用多个分类器的投票结果进行标注,提高样本标注的准确度,利用多个分类器进行协同训练提高算法的训练速度.最后实验结果表明,算法能够提高最终分类器的分类精度和算法的训练速度.  相似文献   

14.
倾斜数据集在实际应用中具有很高的价值,同时也是数据挖掘中的难点和热点,因而得到越来越多的研究者的关注。通过给出的一种改进的支持向量机—DP-SVM,首先对数据集进行预处理、分类,再对它们采取相应的操作;然后根据混叠数据集中样本的k个最近邻的类别,并结合波动大小与其相应类限定值的关系,对该样本点做相应的处理;最后根据副类支持向量与主类样本数量之间的关系,决定对副类支持向量采取何种修剪策略,训练得到其分类器。提出的分界修剪支持向量机由消除分类边界混叠与支持向量修剪两个主要处理部件构成,并通过这两个处理部件实现对分类边界混叠数据的判别及两类支持向量的修剪。实验结果表明,DP-SVM是一种能够较好地解决倾斜数据集分类边界混叠问题的有效方法。  相似文献   

15.
支持向量机(SVM)花费大量时间用于对非支持向量样本的优化.根据支持向量都是位于两类边界的靠近分类超平面的样本点,本文提出首先利用基于中心距离比值法排除大部分远离分类超平面的样本,然后以最小类间距离样本数作为测度进一步选择边界样本.得到包含所有支持向量的最小样本集,构成新的训练样本集训练SVM.将提出的算法应用于解决医学图像奇异点检测问题.实验结果表明.该算法减小了训练样本集的规模,有效地缩短了SVM训练算法的时间.同时获得了较高的榆出率.  相似文献   

16.
基于分类面拼接的快速模块化支持向量机研究   总被引:1,自引:0,他引:1  
针对大多数现有的机器学习算法处理大规模问题时需要的训练时间很长和存储空间很大的难点,提出了基于分类面拼接的快速模块化支持向量机算法(psfm-SVMs).在训练阶段,psfm-SVMs采用一簇平行超平面对大规模问题实施软划分,然后针对每个子问题并行训练支持向量机.在测试阶段,测试样本坐落于哪个子问题所在空间中,就由该子问题训练的支持向量机给出判别结果.在4个大规模问题上的实验表明:与采取硬划分的快速模块化支持向量机(fm-SVMs)相比,软划分能够使psfm-SVMs得到更加光滑的分类面,因而psfm-SVMs的泛化能力较高.在不增加训练时间的条件下,psfm-SVMs减少了由于训练集分割导致的分类器泛化能力下降.  相似文献   

17.
基于粗糙集和支持向量机的采空区煤自燃火灾预报   总被引:1,自引:0,他引:1  
考虑到采用标志气体分析法对煤自燃火灾预报时特征维数较高、特征之间存在冗余且样本有限,文中提出基于粗糙集和支持向量机的采空区煤自燃火灾预报方法。该方法首先采用粗糙集对原始样本去除冗余和特征维数约简得到多组候选特征子集,然后对获得的多组候选特征子集利用支持向量机进行分类和性能评价,选取分类性能最好的一组特征子集用于设计支持向量机分类器,并对采空区遗煤自燃状态进行预测分析。实验选择大同矿区煤样自然发火实验数据,与4种典型分类预测算法的进行比较分析,实验结果表明文中算法预测准确率更高,训练速度更快。粗糙集为煤自燃火灾预报中标志气体选择提供了一个理论依据和新的思路,而支持向量机则提高了煤自燃火灾预测的精度。  相似文献   

18.
在支持向量机的学习过程中,有些情况下训练样本不能一次全部给出,这样当有新样本加入训练集时,支持向量集和训练样本集的等价关系将被打破.为了解决这个问题,本文提出了有新样本加入的支持向量机的学习策略.通过对新样本的分析,选出能代替原样本和新样本进行学习的样本,并给出这些样本应满足的条件,最后给出了相应的学习策略.对标准数据集的实验表明,本学习策略可以在新增样本增加后,有效压缩样本集的大小,提高分类的速度,舍弃无用的样本,同时保证了分类精度.  相似文献   

19.
模糊支持向量机是在支持向量机的基础上,通过考虑不同样本对支持向量机的作用而提出的一种分类方法,然而,该方法却忽视了给定样本集的结构信息.为此,将样本集中的结构信息引入到模糊支持向量机中,给出了一种结构型模糊支持向量机模型,利用拉格朗日求解方法,将其转换为一个具有约束条件的优化问题,通过求解该对偶问题,获得了结构型模糊支持向量机分类器.实验中选取标准数据集,验证了提出方法的有效性.  相似文献   

20.
基于RS-SVM在电力短期负荷预测中的应用   总被引:1,自引:0,他引:1  
提出了一种基于支持向量机算法和粗糙集理论结合的短期电力负荷预测方法。首先利用粗糙集理论对电力负荷决策系统进行约简,消除样本无用信息和冗余,然后在此基础上设计支持向量机多分类器,进行短期预测分类。这样,可以有效减小SVM训练的数据,加快多分类器的处理速度。实验结果显示它能够有效地提高负荷预测精度,缩短了预测时间。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号