首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 93 毫秒
1.
提出了一种基于支持向量回归的增量学习算法,该算法在增量学习中除了考虑原训练集中的支持向量(SVs)外,还考虑了非SVs与ε-带(-iεnsensitive zone)的边界距离较近的样本,并将这些样本与新的训练集一起训练.试验结果表明,与传统的支持向量机增量学习算法相比,此算法提高了训练精度;与经典的SVR相比,此算法大大节约了训练时间,是一种行之有效的增量学习算法.  相似文献   

2.
分析了增量学习过程中支持向量和非支持向量的转化情况。在此基础上提出一种误分点回溯SVM增量算法,该算法先找出新增样本中被误分的样本,然后在原样本集寻找距误分点最近的样本作为训练集的一部分,重新构建分类器,这样能有效保留样本的分类信息。实验结果表明:该算法比传统的支持向量机增量算法有更高的分类精度。  相似文献   

3.
基于支持向量机的增量学习算法   总被引:1,自引:0,他引:1  
通过对支持向量机KKT条件和样本间关系的研究,分析了新增样本加入训练集后支持向量的变化情况,提出一种改进的Upper Limiton Increment增量学习算法.该算法按照KKT条件将对应的样本分为3类:位于分类器间隔外,记为RIG;位于分类间隔上,记为MAR;位于分类间隔内,记为ERR.并在每次训练后保存ERR集,将其与下一个增量样本合并进行下一次训练.实验证明了该算法的可行性和有效性.  相似文献   

4.
支持向量机学习算法的本质是从训练集中寻找支持向量,因此能否通过训练算法能快速找出支持向量是衡量支持向量机算法优劣的重要标准.本文提出了一种新的快速训练支持向量机的增量学习算法,首先,给出边界向量的定义,然后,对一个给定的新加人的样本,新的学习方法验证其是否为边界向量,如果是,将其加入到训练集中重新训练支持向量机,如果不是,就舍弃,这样能达到减少训练样本、降低训练复杂性目的,最后,给出了一个增量学习算法.实验表明测试误差和支持向量数量与SMO算法大致相当,而训练速度明显加快.  相似文献   

5.
分析样本与KKT条件之间的关系以及新增一个样本点对原支持向量分类学习结果的影响,并针对支持向量机在较多训练样本时需要较大的计算量和内存的问题,基于已有的算法提出了一种新的学习算法.实现了对样本集的有效压缩,有利于运算速度的改善.  相似文献   

6.
支持向量机增量学习算法研究   总被引:1,自引:0,他引:1  
给出了使用多支持向量机进行增量学习的算法.传统的支持向量机不具有增量学习性能,而常用的增量学习方法各具有不同的优缺点,基于固定划分和过间隔技术,提出了使用多支持向量机进行增量学习的算法;使用此算法,针对标准数据集BUPA及用NDC生成的数据集OUTTRAIN进行了实验,结果表明,使用单一的支持向量机进行增量学习,不论采用过间隔还是固定划分技术,其增量学习的正确率不及使用多支持向量机增量学习算法的正确率.  相似文献   

7.
该文提出一种基于边界支持向量的自适应增量支持向量机,对每轮训练的样本集提取其边界支持向量,从而减少训练向量数目,提高训练效率.通过自适应调整参数,可以更好地适应新增样本.采用UCI(University of California Irvine)机器学习数据库和Statlog数据库对本文方法进行验证,实验结果表明本文方法的训练时间优于标准支持向量机和一般增量支持向量机.其分类精度也明显优于一般增量支持向量机,在训练数据较少时,其分类精度与标准支持向量机相差不大,但随着训练数据的增加,分类精度逐渐超越标准支持向量机.该文的方法更适合大规模数据集的增量学习.  相似文献   

8.
支持向量机增量学习算法综述   总被引:2,自引:0,他引:2  
支持向量机增量学习算法,有效的解决了因数据集庞大而引起的内存不足问题,改善了因出现新样本而造成原分类器分类精度降低、分类时间延长的局面。本文阐述了几种具有代表性的增量学习算法,比较了它们的优缺点,给出了进一步的研究方向。  相似文献   

9.
基于增量式SVM的入侵检测研究   总被引:1,自引:0,他引:1  
现实中入侵行为是层出不穷的,因此入侵检测系统必须能对新的入侵行为进行学习.提出基于存活因子的增量学习支持向量机(SVM)训练算法,通过边界样本集和准边界样本集对已知的入侵知识进行表示,能有效地对新入侵进行增量式学习.并且,采用了带存活因子的增量学习方式,可以有效地抑制算法的“震荡效应”,提高SVM算法进行入侵检测学习的自适应性和鲁棒性.  相似文献   

10.
从降低时间和空间复杂度的角度出发,针对支持向量机的增量学习问题展开了研究,描述并比较了目前研究与应用较多的几种支持向量机增量学习算法,提出了一种基于壳向量的支持向量机渐进式增量学习算法,仿真实验结果表明:该算法在保证良好的分类精度的前提下,提高了学习效率.  相似文献   

11.
基于支撑向量机在线学习方法的短期负荷预测   总被引:2,自引:0,他引:2  
提出了基于支撑向量机在线学习方法的短期负荷预测,该方法克服了传统的支撑向量机负荷预测当训练样本集合改变时为了保证预测精度必需重新进行训练来得到新的回归函数的缺点.充分利用支撑向量机解的稀疏性和前一次的训练结果,提出了递增和递减算法,直接修改原有回归函数的系数来得到新回归函数.实例计算表明,该方法与传统支撑向量机方法相比,具有计算速度快,推广能力强的显著特点,在相同预测精度下,计算速度提高了近两个数量级.  相似文献   

12.
王伟  刘梅  段爱玲 《河南科学》2010,28(4):436-439
提出在SMO算法上应用自适应学习的思想,并利用求解凸二次规划寻优问题的基础上进行改进的研究.研究表明,基于自适应学习的思想对SMO算法进行改进,可使SVM算法更能适应实际应用快速、高效的需求.  相似文献   

13.
一种小功率开关稳压电源设计   总被引:2,自引:0,他引:2  
本文设计了一种以电流型PWM控制器5L0380为控制核心的单端反激式开关稳压电源。重点给出EMI滤波器、整流电路、变压器、控制电路、反馈电路的参数设计。实验结果表明,所制作的电源具有稳压性能优良、纹波小、电压调整率和负载调整率小等优点。  相似文献   

14.
一种SVM增量学习算法   总被引:13,自引:6,他引:13  
分析了SVM理论中SV(支持向量)集的特点,给出一种SVM增量学习算法,通过在增量学习中使用SV集与训练样本集的分类等价性,使得新的增量训练无需在整个训练样本空间进行,理论分析和实验结果表明,该算法能然保证分类精度的同时有效地提高训练速度。  相似文献   

15.
提出一种基于多核加权支持向量机的水质预测方法.核函数及其参数选择与数据分布的情况密切相关,采用单一的核函数应对水资源质量评价指标的整个数据分布难以达到很好的预测结果.采用多核加权学习的核函数避免了核函数设计的盲目性和局部最优等非线性优化问题.实例表明,该方法的预测结果是合理可行的,且与以往同类预测方法相比,有着更为客观...  相似文献   

16.
为了提高中心距离比值法预选取支撑矢量的效率,降低支撑矢量机的训练时间,引入自适应动态克隆算法对中心距离比值法的阈值进行优化,并将该算法应用于入侵检测中,提出了基于阈值优化的CDRM-SVM入侵检测算法.算法首先利用自适应动态克隆算法对中心距离比值法中的阈值进行优化,获得理想的阈值,从而可以提取出包含全部支撑矢量的边界矢量集,然后使用边界矢量集代替训练样本集进行支持矢量机的训练,大幅度减少了训练样本的数量,使支持矢量机的训练速度显著提高.同时,由于边界矢量集中包含了支撑矢量,因此,支撑矢量机的分类能力没有受到影响.采用KDDCUP 99数据集进行试验,试验结果表明:与传统方法相比,在保证性能的情况下,所提算法能够有效地降低支持向量机的训练时间.  相似文献   

17.
一种改进的SVM算法及其在证券领域中的应用   总被引:2,自引:0,他引:2  
根据传统的SVM算法原理,提出一种新的基于连续的和过程化的SVM算法,该算法在分类结果上不再局限于两类分类问题的离散情况,是一种支持向量的动态选择算法.将该算法应用于证券领域中,结果表明该算法是有效且正确的.  相似文献   

18.
基于改进的LBG算法的SVM学习策略   总被引:2,自引:0,他引:2  
针对SVM方法在大样本情况下学习和分类速度慢的问题,提出了利用LBG算法对训练样本进行预处理,然后再使用传统的SVM算法进行训练的策略,并提出了一种改进的LBG算法.通过对仿真数据以及对实际的纹理图像的分类实验表明,这种预处理方法能在保持学习精度的同时减小训练样本以及决策函数中支持向量集的规模,从而提高学习和分类的速度.  相似文献   

19.
At present, studies on training algorithms for support vector machines (SVM) are important issues in the field of machine learning. It is a challenging task to improve the efficiency of the algorithm without reducing the generalization performance of SVM. To face this challenge, a new SVM training algorithm based on the set segmentation and k-means clustering is presented in this paper. The new idea is to divide all the original training data into many subsets, followed by clustering each subset using k-means clustering and finally train SVM using the new data set obtained from clustering centroids. Considering that the decomposition algorithm such as SVMlight is one of the major methods for solving support vector machines, the SVMlight is used in our experiments. Simulations on different types of problems show that the proposed method can solve efficiently not only large linear classification problems but also large nonlinear ones.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号