首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
针对支持向量机(Support Vector Machine,SVM)处理大规模样本分类的学习效率降低问题,提出两阶段学习的支持向量机算法。该方法首先在正负类分别进行无监督聚类,提取各个聚类质心组成约简训练集,进行初次SVM训练;然后,根据初次训练结果选取边界样本集,参与第二次SVM训练。在UCI数据集上的实验结果表明,所提方法在保持分类泛化性能的同时,提高了模型的训练速度。  相似文献   

2.
一种改进的快速支持向量机分类算法研究   总被引:5,自引:0,他引:5  
快速的支持向量机分类算法--FCSVM对支持向量集采用变换的方式,用支持向量集的子集代替全部支持向量进行分类计算,在保证不损失分类精度的前提下使得分类速度较传统SVM算法有较大提高. 为了获得最小的支持向量子集,同时避免支持向量的移动,对FCSVM算法进行了改进.采用二分法优化分类函数中的支持向量数,给出了变换矩阵存在的充要条件及构造方法,减少了计算量.实验结果表明,改进的快速分类算法较大幅度地减少了计算复杂度,提高了分类速度,尤其在训练集规模庞大、支持向量数量较多的情况下,效果更加明显.  相似文献   

3.
一种SVM增量学习算法   总被引:13,自引:6,他引:13  
分析了SVM理论中SV(支持向量)集的特点,给出一种SVM增量学习算法,通过在增量学习中使用SV集与训练样本集的分类等价性,使得新的增量训练无需在整个训练样本空间进行,理论分析和实验结果表明,该算法能然保证分类精度的同时有效地提高训练速度。  相似文献   

4.
针对基于GPU和MPI并行的支持向量机(SVM)算法不适合于云计算环境,设计了一种基于多级SVM的并行支持向量机模型,实现了云计算环境下的序列最小优化(SMO)的并行算法。该算法通过MapReduce系统将大规模训练数据集划分为若干小训练集,再由这些小训练集开发多级的SVM,最后收集每一个SVM最优超平面附近的样本数据来训练另一个新的SVM。实验结果表明,该算法在时间消耗与分类正确率等综合方面比单机算法和传统并行算法获得更好的效果。  相似文献   

5.
针对传统支持向量机的情感识别中,随着识别情感的类别增加,支持向量机数目急剧增加,导致训练难度增大的同时占用内存空间过大,耗时过长的问题,提出了基于层次支持向量机的情感识别算法.该算法结合了二维情感模型理论,以层次支持向量机为基础,运用了小波分解等技术手段,构建了一套完整的脉搏信号情感识别方法.对于n类分类问题,传统的SVM(Support Vector Machine)分类需要n(n-1)/2个分类器,运用层次SVM分类只需要构造n-1个SVM分类器.实验结果表明,层次支持向量机模型在保证分类准确率的同时,减少了传统分类算法支持向量机的个数,分类速度提升了43.5%.  相似文献   

6.
基于对支持向量机训练算法的研究与理解,针对支持向量的几何特点,结合凸壳的几何性质,对支持向量机训练算法的工作集选取进行了改进.在LIBSVM的环境下进行了对比分析.数值实验表明,改进的基于凸壳的训练数据选取算法缩短了训练时间并保持了良好的泛化能力,具有一定的参考价值.  相似文献   

7.
针对支持向量机中当样本集训练规模很大且存在野点时,其分类速度慢且精度不高的问题,提出一个支持向量机快速算法。其基本步骤是首先求取每类样本点的壳向量和中心向量,然后将求出的壳向量和中心向量合在一起,组成新的训练集进行训练,得到最终的分类器。实验表明采用这种学习策略,不仅大幅度降低了学习代价,而且获得的分类精度与直接通过大规模样本集训练得到的分类器的分类精度相当,同时分类速度也得到大幅度提高。  相似文献   

8.
该文提出一种基于边界支持向量的自适应增量支持向量机,对每轮训练的样本集提取其边界支持向量,从而减少训练向量数目,提高训练效率.通过自适应调整参数,可以更好地适应新增样本.采用UCI(University of California Irvine)机器学习数据库和Statlog数据库对本文方法进行验证,实验结果表明本文方法的训练时间优于标准支持向量机和一般增量支持向量机.其分类精度也明显优于一般增量支持向量机,在训练数据较少时,其分类精度与标准支持向量机相差不大,但随着训练数据的增加,分类精度逐渐超越标准支持向量机.该文的方法更适合大规模数据集的增量学习.  相似文献   

9.
粒度支持向量机学习模型   总被引:4,自引:0,他引:4  
粒度支持向量机(Granular Support Vector Machine,GSVM)是以粒度计算理论和统计学习理论为基础的一种新的机器学习模型,它可以有效地克服传统支持向量机(Support Vector Machine,SVM)对于大规模数据集训练效率低下的问题,同时也可获得较好的泛化性能.文章针对原空间的GSVM模型进行了分析,提出了核空间的GSVM学习模型,在标准数据集上的实验说明了文中提出模型的有效性.  相似文献   

10.
11.
At present, studies on training algorithms for support vector machines (SVM) are important issues in the field of machine learning. It is a challenging task to improve the efficiency of the algorithm without reducing the generalization performance of SVM. To face this challenge, a new SVM training algorithm based on the set segmentation and k-means clustering is presented in this paper. The new idea is to divide all the original training data into many subsets, followed by clustering each subset using k-means clustering and finally train SVM using the new data set obtained from clustering centroids. Considering that the decomposition algorithm such as SVMlight is one of the major methods for solving support vector machines, the SVMlight is used in our experiments. Simulations on different types of problems show that the proposed method can solve efficiently not only large linear classification problems but also large nonlinear ones.  相似文献   

12.
DirectSVM算法是求解支持向量机的一种简单快速迭代算法,具有最好的几何直观性.算法将线性可分的两类样本中距离最近的两个异类样本点作为支持向量,以该两点连线的垂直平分面作为初始分类超平面,然后根据分类情况逐步确定新的支持向量,即逐步优化出最优分类超平面.对该算法进行了测试,发现该算法具有局限性,并对算法局限性产生的根源进行了分析,对如何合理使用DirectSVM算法进行了讨论.结论是:用DirectSVM算法直接求解最优分类面是不可靠的,但可以作为支持向量机的一种近似算法,也可以作为求解候选支持向量集的方法,再与其他经典算法结合使用.  相似文献   

13.
为了提高中心距离比值法预选取支撑矢量的效率,降低支撑矢量机的训练时间,引入自适应动态克隆算法对中心距离比值法的阈值进行优化,并将该算法应用于入侵检测中,提出了基于阈值优化的CDRM-SVM入侵检测算法.算法首先利用自适应动态克隆算法对中心距离比值法中的阈值进行优化,获得理想的阈值,从而可以提取出包含全部支撑矢量的边界矢量集,然后使用边界矢量集代替训练样本集进行支持矢量机的训练,大幅度减少了训练样本的数量,使支持矢量机的训练速度显著提高.同时,由于边界矢量集中包含了支撑矢量,因此,支撑矢量机的分类能力没有受到影响.采用KDDCUP 99数据集进行试验,试验结果表明:与传统方法相比,在保证性能的情况下,所提算法能够有效地降低支持向量机的训练时间.  相似文献   

14.
支持向量机(SVM)花费大量时间用于对非支持向量样本的优化.根据支持向量都是位于两类边界的靠近分类超平面的样本点,本文提出首先利用基于中心距离比值法排除大部分远离分类超平面的样本,然后以最小类间距离样本数作为测度进一步选择边界样本.得到包含所有支持向量的最小样本集,构成新的训练样本集训练SVM.将提出的算法应用于解决医学图像奇异点检测问题.实验结果表明.该算法减小了训练样本集的规模,有效地缩短了SVM训练算法的时间.同时获得了较高的榆出率.  相似文献   

15.
Support vector machine(SVM) is an important classification tool in the pattern recognition and machine learning community,but its training is a time-consuming process.To deal with this problem,we propose a novel method to mine the useful information about classification hidden in the training sample for improving the training algorithm,and every training point is assigned to a value that represents the classification information,respectively,where training points with the higher values are chosen as candidate support vectors for SVM training.The classification information value for a training point is computed based on the classification accuracy of an appropriate hyperplane for the training sample,where the hyperplane goes through the mapped target of the training point in feature space defined by a kernel function.Experimental results on various benchmark datasets show the effectiveness of our algorithm.  相似文献   

16.
基于密度法的模糊支持向量机   总被引:13,自引:0,他引:13  
针对支持向量机对训练样本内的噪音和孤立点特别敏感、极大地影响了支持向量机分类性能的弱点,提出了一种基于密度法的模糊支持向量机,在支持向量机中引入样本密度模糊参数,从而减弱了噪音以及孤立点对支持向量机分类的影响.实验结果证明,在抗击孤立点和噪音点的干扰方面,上述方法优于类中心向量方法以及类中心点距离方法,取得了很好的效果.这一方法大大提高了支持向量机分类的泛化能力,从而大大提高了支持向量机的应用范围.  相似文献   

17.
一种小功率开关稳压电源设计   总被引:2,自引:0,他引:2  
本文设计了一种以电流型PWM控制器5L0380为控制核心的单端反激式开关稳压电源。重点给出EMI滤波器、整流电路、变压器、控制电路、反馈电路的参数设计。实验结果表明,所制作的电源具有稳压性能优良、纹波小、电压调整率和负载调整率小等优点。  相似文献   

18.
针对大数据环境下并行支持向量机(support vector machine,SVM)算法存在噪声数据较敏感、训练样本数据冗余等问题,提出基于粒度和信息熵的GIESVM-MR(the SVM algorithm by using granularity and information entropy based on MapReduce)算法.该算法首先提出噪声清除策略(noise cleaning,NC)对每个特征属性的重要程度进行评价,获得样本与类别之间的相关度,以达到识别和删除噪声数据的目的;其次提出基于粒度的数据压缩策略(data compression based on granulation,GDC),通过筛选信息粒的方式保留类边界样本删除非支持向量,得到规模较小的数据集,从而解决了大数据环境下训练样本数据冗余问题;最后结合Bagging的思想和MapReduce计算模型并行化训练SVM,生成最终的分类模型.实验表明,GIESVM-MR算法的分类效果更佳,且在大规模的数据集下算法的执行效率更高.  相似文献   

19.
为解决机械故障小样本模式识别问题,有效地提高分类的准确率,提出了一种基于经验模式分解模糊特征提取的支持向量机混合诊断模型.该模型通过对信号进行经验模式分解,提取信号的本征模式分量并转化为模糊特征向量,对机器故障进行诊断,然后将模糊特征向量输入到多分类的支持向量机中,实现了对机器不同故障类型的识别.将该模型应用于汽轮发电机组的3种工作状态的识别中,测试结果表明,同原有的未经过任何特征提取以及经过小波包模糊特征提取的2种多分类支持向量机方法相比,该模型将分类准确率从原有的53.33%和86.67%提高到100%,有效地改善了分类的准确性.同时,该模型还为汽轮发电机组的故障确诊提供了有力依据.  相似文献   

20.
支持向量机学习算法的本质是从训练集中寻找支持向量,因此能否通过训练算法能快速找出支持向量是衡量支持向量机算法优劣的重要标准.本文提出了一种新的快速训练支持向量机的增量学习算法,首先,给出边界向量的定义,然后,对一个给定的新加人的样本,新的学习方法验证其是否为边界向量,如果是,将其加入到训练集中重新训练支持向量机,如果不是,就舍弃,这样能达到减少训练样本、降低训练复杂性目的,最后,给出了一个增量学习算法.实验表明测试误差和支持向量数量与SMO算法大致相当,而训练速度明显加快.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号