首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
分析了增量学习过程中支持向量和非支持向量的转化情况。在此基础上提出一种误分点回溯SVM增量算法,该算法先找出新增样本中被误分的样本,然后在原样本集寻找距误分点最近的样本作为训练集的一部分,重新构建分类器,这样能有效保留样本的分类信息。实验结果表明:该算法比传统的支持向量机增量算法有更高的分类精度。  相似文献   

2.
一种新的支持向量机增量学习算法   总被引:22,自引:0,他引:22  
提出一种新的支持向量机增量学习算法。分析了新样本加入训练集后,支持向量集的变化情况。基于分析结论提出新的学习算法。算法舍弃对最终结论无用的样本,使得学习对象的知识到了积累。实验结果表明本算法在保证分类准确度的同时,在增量学习问题上比传统的支持向量机有效。  相似文献   

3.
针对SVM中当训练样本数非常多时,分类算法训练阶段的计算量庞大;当训练样本集中存在噪声时,影响训练阶段超平面划分的准确度,导致分类准确率降低等问题,提出了一种基于密度的训练样本裁剪的SVM算法。首先应用密度裁剪算法裁剪掉原始训练样本集中存在的噪声和冗余样本,作为新训练样本集,使用网格搜索算法在新的训练样本集中对SVM参数(C,g)寻优,进行SVM训练并建模,达到分类的目的。实验结果表明,该算法同无样本裁剪的SVM算法相比分类准确率有所提高、训练阶段的时间耗费大大降低。  相似文献   

4.
通过分析现有SVM的两种改进算法:半监督学习算法和增量学习算法,给出了对现有的增量学习算法的改进,提出了一种新的半监督增量SVM学习算法,将其应用于Web文本分类中,并验证了半监督增量SVM学习算法的有效性和可行性。  相似文献   

5.
介绍了增量学习算法、序列最小优化算法、加权支持向量机算法等几种应用于大型数据库,在加快训练速度、降低分类错误率等方面有改进的SVM流行算法.在分析各种算法优缺点的基础上,提出了在线性样本训练、超大规模样本下满足KKT条件的算法是SVM算法的发展方向的观点.  相似文献   

6.
为使支持向量机(SVM)更加适用于在线文本分类应用,利用SVM在小训练样本集条件下仍有高泛化能力的特性,结合文本特征向量在特征空间中具有聚类性的特点,提出一种用语义中心集代替原训练样本集作为训练样本和支持向量的SVM语义SVM.文中给出了语义中心集的生成步骤、语义SVM的在线学习算法框架,以及基于SMO算法的在线学习算法的实现.实验结果表明,相对于标准SVM,语义SVM及其在线学习算法不仅在线学习速度和分类速度有数量级提高,而且在分类准确率方面具有一定优势.  相似文献   

7.
基于改进的LBG算法的SVM学习策略   总被引:2,自引:0,他引:2  
针对SVM方法在大样本情况下学习和分类速度慢的问题,提出了利用LBG算法对训练样本进行预处理,然后再使用传统的SVM算法进行训练的策略,并提出了一种改进的LBG算法.通过对仿真数据以及对实际的纹理图像的分类实验表明,这种预处理方法能在保持学习精度的同时减小训练样本以及决策函数中支持向量集的规模,从而提高学习和分类的速度.  相似文献   

8.
传统的支持向量机(Support Vector Machine,SVM)分类算法不具有增量学习能力,为了减少新增样本加入后重新训练的时间并能适应海量数据的准确分类,提出了一种基于组合保留集的SVM增量学习算法.该算法以构建保留集为基础,采用缩放平移选择法选择样本,且利用了组合保留的思想,对原训练集样本和增量样本集中满足KKT(Karush-Kuhn-Tucker)条件的样本分别进行部分保留,并赋予样本权重,再依据权重挑选部分保留样本与原支持向量集和增量样本中违背KKT条件的样本合并进行训练,从而实现原有样本知识的积累和新样本知识的学习.实验结果表明,该算法在加快分类速度的同时提高了分类精度.  相似文献   

9.
基于增量式SVM的入侵检测研究   总被引:1,自引:0,他引:1  
现实中入侵行为是层出不穷的,因此入侵检测系统必须能对新的入侵行为进行学习.提出基于存活因子的增量学习支持向量机(SVM)训练算法,通过边界样本集和准边界样本集对已知的入侵知识进行表示,能有效地对新入侵进行增量式学习.并且,采用了带存活因子的增量学习方式,可以有效地抑制算法的“震荡效应”,提高SVM算法进行入侵检测学习的自适应性和鲁棒性.  相似文献   

10.
针对传统SVM无法适应文本数据库随着时间不断更新的问题,通过对新增文本集的KKT条件的分析,研究了加入新增文本集后支持向量集的变化,提出了使用增量SVM进行文本分类的算法,并通过实验验证了通过该算法得到的分类器和传统分类器有着相似的分类能力和泛化能力.  相似文献   

11.
一种基于距离比值的支持向量机增量训练算法   总被引:1,自引:0,他引:1       下载免费PDF全文
由于支持向量机具有较好地学习性能和泛化能力,目前已经得到了广泛的应用。如何使支持向量机进行有效的增量学习是目前支持向量机应用中需要解决的问题。深入研究了支持向量分布特点,提出了一种新的支持向量机增量训练淘汰机制——距离比值算法。该算法根据遗忘规则,设定一个合适的参数,按距离比值法中的定义计算各个样本中心距离与其到最优分类面距离的比值,舍弃对后续训练影响不大的样本,即可对训练数据进行有效的淘汰。对标准数据集的实验结果表明,使用该方法进行增量训练在保证分类精度的同时,能有效地提高训练速度。  相似文献   

12.
从降低时间和空间复杂度的角度出发,针对支持向量机的增量学习问题展开了研究,描述并比较了目前研究与应用较多的几种支持向量机增量学习算法,提出了一种基于壳向量的支持向量机渐进式增量学习算法,仿真实验结果表明:该算法在保证良好的分类精度的前提下,提高了学习效率.  相似文献   

13.
基于Sherman-Morrison定理和迭代算法,提出一种改进最小二乘孪生支持向量机(SMI-ILSTSVM)的增量学习算法,解决了最小二乘孪生支持向量机(LSTSVM)不具备结构风险最小化和稀疏性的问题.实验结果表明,该算法分类精度和效率均较高,适用于含有噪声的交叉样本集分类.  相似文献   

14.
At present, studies on training algorithms for support vector machines (SVM) are important issues in the field of machine learning. It is a challenging task to improve the efficiency of the algorithm without reducing the generalization performance of SVM. To face this challenge, a new SVM training algorithm based on the set segmentation and k-means clustering is presented in this paper. The new idea is to divide all the original training data into many subsets, followed by clustering each subset using k-means clustering and finally train SVM using the new data set obtained from clustering centroids. Considering that the decomposition algorithm such as SVMlight is one of the major methods for solving support vector machines, the SVMlight is used in our experiments. Simulations on different types of problems show that the proposed method can solve efficiently not only large linear classification problems but also large nonlinear ones.  相似文献   

15.
一种快速SVM学习算法   总被引:3,自引:0,他引:3  
介绍了支持向量机用于解决模式分类问题的基本原理和学习算法,在对SMO算法进行深入分析的基础上,提出了一种改进的分解算法GD,较好地解决了训练过程中子问题的求解复杂度和迭代次数及效率之间的矛盾。实验表明,该算法能够大大缩短非线性核支持向量机的训练时间。  相似文献   

16.
基于支撑向量机在线学习方法的短期负荷预测   总被引:2,自引:0,他引:2  
提出了基于支撑向量机在线学习方法的短期负荷预测,该方法克服了传统的支撑向量机负荷预测当训练样本集合改变时为了保证预测精度必需重新进行训练来得到新的回归函数的缺点.充分利用支撑向量机解的稀疏性和前一次的训练结果,提出了递增和递减算法,直接修改原有回归函数的系数来得到新回归函数.实例计算表明,该方法与传统支撑向量机方法相比,具有计算速度快,推广能力强的显著特点,在相同预测精度下,计算速度提高了近两个数量级.  相似文献   

17.
分析样本与KKT条件之间的关系以及新增一个样本点对原支持向量分类学习结果的影响,并针对支持向量机在较多训练样本时需要较大的计算量和内存的问题,基于已有的算法提出了一种新的学习算法.实现了对样本集的有效压缩,有利于运算速度的改善.  相似文献   

18.
基于支持向量机的增量学习算法   总被引:1,自引:0,他引:1  
通过对支持向量机KKT条件和样本间关系的研究,分析了新增样本加入训练集后支持向量的变化情况,提出一种改进的Upper Limiton Increment增量学习算法.该算法按照KKT条件将对应的样本分为3类:位于分类器间隔外,记为RIG;位于分类间隔上,记为MAR;位于分类间隔内,记为ERR.并在每次训练后保存ERR集,将其与下一个增量样本合并进行下一次训练.实验证明了该算法的可行性和有效性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号