首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 31 毫秒
1.
用支持向量机的机器学习是依据结构风险最小化原则,序列最小优化(SMO)是较特殊的分解算法。对高维大样本对象,支持向量机训练算法面临耗时增大与维数灾问题,利用粗糙集(RS)对不确定数据处理能力,提出一种新的粗糙集与支持向量分类机算法RS-SMO,可以对数据集做属性约简,生成类边界集作为SMO的训练子集,比原始训练集的维数与规模大小都有一定程度的减少,可构造出具有较好时空性能的算法。用两个实用数据对象做仿真,实验结果表明算法RS-SMO比SMO的性能有大的提高,实现了结构风险最小化。  相似文献   

2.
基于粗糙集与支持向量机的分类算法   总被引:4,自引:1,他引:3  
针对高维大样本环境下支持向量机训练算法面临界的耗时增大与维数灾问题,将序列最小优化算法(SMO)与粗糙集(RS)的数据处理功能相结合,提出一种新的基于粗糙集与支持向量机的分类算法RS.SMO.该算法依据属性的重要性对数据集作属性约简,用粗糙边界集法生成类边界集作为SMO的训练子集,使训练集比原始训练集的维数与规模都有一定程度的减少,可构造出具有较好时空性能的算法.实验结果表明,RS-SMO算法能实现结构风险最小化,且性能优于SMO算法.  相似文献   

3.
针对支持向量机(Support Vector Machine,SVM)处理大规模样本分类的学习效率降低问题,提出两阶段学习的支持向量机算法。该方法首先在正负类分别进行无监督聚类,提取各个聚类质心组成约简训练集,进行初次SVM训练;然后,根据初次训练结果选取边界样本集,参与第二次SVM训练。在UCI数据集上的实验结果表明,所提方法在保持分类泛化性能的同时,提高了模型的训练速度。  相似文献   

4.
提出了一种基于聚类的支持向量机增量学习算法.先用最近邻聚类算法将训练集分成具有若干个聚类子集,每一子集用支持向量机进行训练得出支持向量集;对于新增数据首先聚类到相应的子集,然后计算其与聚类集内的支持向量之间的距离,给每个训练样本赋以适当的权重;而后再建立预估模型.此算法通过钢材力学性能预报建模的工业实例研究,结果表明:与标准的支持向量回归算法相比,此算法在建模过程中不仅支持向量个数明显减少,而且模型的精度也有所提高.  相似文献   

5.
单实例多标签分类是指一个样本拥有多个标签的分类问题,对此提出了一种基于半模糊核聚类和模糊支持向量机的多标签分类算法.该算法采用一对一分解策略将多类多标签数据集分解为多个两类双标签数据子集,在每个子集上训练两类双标签模糊支持向量机.为提高分类器的性能引入了半模糊核聚类技术.实验结果表明,与现有的一些算法相比新算法具有其优...  相似文献   

6.
基于粗糙集的支持向量回归机混合算法   总被引:1,自引:0,他引:1  
利用粗糙集(RS)对不精确数据的处理能力,生成分类数据的边界集,替代原始样本作为训练集,减少训练集与获取的支持向量的数量,然后使用支持向量机的最小序列优化(SMO)算法改进回归学习机的性能.将粗糙集与SMO回归算法结合提出一种混合函数回归算法RS-SMO-RA.在常用SMO回归算法SMO-RA基础上,扩增一段简短的生成边界样本的算法程序.仿真结果表明,算法RS-SMO-RA的效率更高,且能够改进学习结果的性能.  相似文献   

7.
为了解决经典支持向量机方法已发现的执行时间长、执行效率低的相关问题,提出基于增量学习向量的支持向量机学习方法。该算法通过对训练样本集合的相关增量学习向量进行训练学习来得到初始支持向量机分类器。利用该初始化分类器在有关条件下针对初始训练样本集进行缩减得到精简缩小集,再应用精简缩小集针对初始支持向量机的分类器反向加工来得到支持向量机的最终分类器。该算法可大幅度降低大容量数据集上支持向量机的学习时间,并且具有很好的泛化能力。为了验证本学习方法的可应用性,从Berkeley图像分割数据集BSDS500和互联网上选取相关彩色图像进行仿真实验。该文实验结果表明:该方法得到分割结果的过程不仅比传统支持向量机耗时少,且与Berkeley图像分割数据集中人工标注结果比较得到较好分割效果。  相似文献   

8.
为了解决经典支持向量机方法已发现的执行时间长、执行效率低的相关问题,提出基于增量学习向量的支持向量机学习方法。该算法通过对训练样本集合的相关增量学习向量进行训练学习来得到初始支持向量机分类器。利用该初始化分类器在有关条件下针对初始训练样本集进行缩减得到精简缩小集,再应用精简缩小集针对初始支持向量机的分类器反向加工来得到支持向量机的最终分类器。该算法可大幅度降低大容量数据集上支持向量机的学习时间,并且具有很好的泛化能力。为了验证本学习方法的可应用性,从Berkeley图像分割数据集BSDS500和互联网上选取相关彩色图像进行仿真实验。该文实验结果表明:该方法得到分割结果的过程不仅比传统支持向量机耗时少,且与Berkeley图像分割数据集中人工标注结果比较得到较好分割效果。  相似文献   

9.
支持向量机学习算法的本质是从训练集中寻找支持向量,因此能否通过训练算法能快速找出支持向量是衡量支持向量机算法优劣的重要标准.本文提出了一种新的快速训练支持向量机的增量学习算法,首先,给出边界向量的定义,然后,对一个给定的新加人的样本,新的学习方法验证其是否为边界向量,如果是,将其加入到训练集中重新训练支持向量机,如果不是,就舍弃,这样能达到减少训练样本、降低训练复杂性目的,最后,给出了一个增量学习算法.实验表明测试误差和支持向量数量与SMO算法大致相当,而训练速度明显加快.  相似文献   

10.
为使支持向量机(SVM)更加适用于在线文本分类应用,利用SVM在小训练样本集条件下仍有高泛化能力的特性,结合文本特征向量在特征空间中具有聚类性的特点,提出一种用语义中心集代替原训练样本集作为训练样本和支持向量的SVM语义SVM.文中给出了语义中心集的生成步骤、语义SVM的在线学习算法框架,以及基于SMO算法的在线学习算法的实现.实验结果表明,相对于标准SVM,语义SVM及其在线学习算法不仅在线学习速度和分类速度有数量级提高,而且在分类准确率方面具有一定优势.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号