首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
在标准支持向量回归在线学习的基础上,提出了一种加权支持向量回归在线学习方法(WOSVR),即加权支持向量机中针对不同样本点使用不同惩罚系数C,且不同惩罚系数C反映了样本重要性的不同,WOSVR中近期数据重要性大于历史数据重要性.使用基准数据Mackey-Glass混沌序列进行了相关验证实验.结果表明,加权支持向量回归在线学习方法能有效修改模型.  相似文献   

2.
适用于加权样本集处理的加权支持向量机方法   总被引:1,自引:0,他引:1  
为了处理模式识别问题中具有加权信息的样本集,提出一种加权支持向量机(weighted support vector machine,WSVM)算法,并对算法进行了理论分析.通过引入样本与超平面加权距离的概念,使得WSVM算法可以对样本的权值信息进行有效处理.针对未明确给出权值分布的样本集,提出一种基于类间中心距离确定权值的经验方法,对加权支持向量机算法采用交叉验证技术在人工及真实数据上进行了仿真,结果表明,加权支持向量机比标准支持向量机具有更小的误识率和更好的稳定性.  相似文献   

3.
该文提出一种基于边界支持向量的自适应增量支持向量机,对每轮训练的样本集提取其边界支持向量,从而减少训练向量数目,提高训练效率.通过自适应调整参数,可以更好地适应新增样本.采用UCI(University of California Irvine)机器学习数据库和Statlog数据库对本文方法进行验证,实验结果表明本文方法的训练时间优于标准支持向量机和一般增量支持向量机.其分类精度也明显优于一般增量支持向量机,在训练数据较少时,其分类精度与标准支持向量机相差不大,但随着训练数据的增加,分类精度逐渐超越标准支持向量机.该文的方法更适合大规模数据集的增量学习.  相似文献   

4.
针对传统线性支持向量机在训练数据集时均等对待每一维输入特征,以及在原始空间直接分类造成预测准确率低的问题,提出低阶多项式数据映射和特征加权相结合的方法,来提高线性支持向量机的分类性能。该方法首先将每个样本映射到多项式核对应的2 阶显式特征空间,从而增加样本的隐性信息,然后使用模糊熵特征加权算法计算每一维特征的权重,通过权重衡量特征对分类结果的贡献大小。从不同数据库选取7个数据集进行测试,在训练时间和预测准确率2个方面将该方法与核支持向量机、线性支持向量机的其他改进算法进行比较。结果显示,随着数据集规模的扩大,训练时间降低一个数量级,预测准确率在一些数据集上取得与核支持向量机相接近的效果。结果表明:所提方法可以有效提高线性支持向量机的整体性能。  相似文献   

5.
提出了一种基于支持向量回归的增量学习算法,该算法在增量学习中除了考虑原训练集中的支持向量(SVs)外,还考虑了非SVs与ε-带(-iεnsensitive zone)的边界距离较近的样本,并将这些样本与新的训练集一起训练.试验结果表明,与传统的支持向量机增量学习算法相比,此算法提高了训练精度;与经典的SVR相比,此算法大大节约了训练时间,是一种行之有效的增量学习算法.  相似文献   

6.
把一类支持向量机应用到人脸相似性学习中,提出了一种快速的人脸相似性学习方法.和标准支持向量机相比较,一类支持向量机的主要特点是只利用相似样本进行训练,减少了数据量,能快速地进行相似性学习.2个实际人脸数据库上的实验结果表明,本方法能够快速地学习到人脸相似性,其运行时间至多是支持向量机算法的三分之一.  相似文献   

7.
一种新的支持向量机增量学习算法   总被引:22,自引:0,他引:22  
提出一种新的支持向量机增量学习算法。分析了新样本加入训练集后,支持向量集的变化情况。基于分析结论提出新的学习算法。算法舍弃对最终结论无用的样本,使得学习对象的知识到了积累。实验结果表明本算法在保证分类准确度的同时,在增量学习问题上比传统的支持向量机有效。  相似文献   

8.
根据支持向量样本、边界向量样本、相对距离和加权系数之间的关系,提出了基于相对距离的加权支持向量机.利用相对距离表示了每个样本的重要性.并构造函数计算出每个样本点的加权系数,体现了支持向量对加权系数的影响,并且有效地处理非均衡数据对分类的影响,从而提高了支持向量机的训练速度和分类能力.  相似文献   

9.
一种基于密度加权的最小二乘支持向量机稀疏化算法   总被引:4,自引:1,他引:3  
针对最小二乘支持向量机失去标准支持向量机稀疏特性的问题,提出了一种基于密度加权的稀疏化算法.首先计算样本的密度信息,对样本估计误差进行密度加权获得该样本对模型的可能贡献度;然后选取具有最大可能贡献度的样本作为支持向量,同时对支持向量样本邻域内的其他样本密度信息进行削减,从而避免相似样本被选中为支持向量;再选择剩余样本中具有最大可能贡献度的样本添加到支持向量集中,直到模型性能满足要求.仿真和实际应用表明,与Suykens提出的标准稀疏化算法相比,所提出的算法能有效剔除冗余支持向量,具有更好的稀疏性和鲁棒性.  相似文献   

10.
基于支持向量机的增量学习算法   总被引:1,自引:0,他引:1  
通过对支持向量机KKT条件和样本间关系的研究,分析了新增样本加入训练集后支持向量的变化情况,提出一种改进的Upper Limiton Increment增量学习算法.该算法按照KKT条件将对应的样本分为3类:位于分类器间隔外,记为RIG;位于分类间隔上,记为MAR;位于分类间隔内,记为ERR.并在每次训练后保存ERR集,将其与下一个增量样本合并进行下一次训练.实验证明了该算法的可行性和有效性.  相似文献   

11.
基于模糊熵的支撑矢量预选取方法   总被引:1,自引:0,他引:1  
在基于支撑矢量机的分类器学习算法中,预先选择支撑矢量是非常重要的.依据模糊熵理论,提出一种启发式的支撑矢量预选取方法——模糊熵方法.该方法针对支撑矢量数目较小的情况,可以有效地预选取出包含支撑矢量的边界集.利用边界集作为训练集可以大大简化支撑矢量机的训练而不影响分类性能.与其它方法相比,该方法的主要优点是不需要参数来确定边界集的阈值.仿真实验结果表明该方法是有效和可行的.  相似文献   

12.
At present, studies on training algorithms for support vector machines (SVM) are important issues in the field of machine learning. It is a challenging task to improve the efficiency of the algorithm without reducing the generalization performance of SVM. To face this challenge, a new SVM training algorithm based on the set segmentation and k-means clustering is presented in this paper. The new idea is to divide all the original training data into many subsets, followed by clustering each subset using k-means clustering and finally train SVM using the new data set obtained from clustering centroids. Considering that the decomposition algorithm such as SVMlight is one of the major methods for solving support vector machines, the SVMlight is used in our experiments. Simulations on different types of problems show that the proposed method can solve efficiently not only large linear classification problems but also large nonlinear ones.  相似文献   

13.
DirectSVM算法是求解支持向量机的一种简单快速迭代算法,具有最好的几何直观性.算法将线性可分的两类样本中距离最近的两个异类样本点作为支持向量,以该两点连线的垂直平分面作为初始分类超平面,然后根据分类情况逐步确定新的支持向量,即逐步优化出最优分类超平面.对该算法进行了测试,发现该算法具有局限性,并对算法局限性产生的根源进行了分析,对如何合理使用DirectSVM算法进行了讨论.结论是:用DirectSVM算法直接求解最优分类面是不可靠的,但可以作为支持向量机的一种近似算法,也可以作为求解候选支持向量集的方法,再与其他经典算法结合使用.  相似文献   

14.
为解决支持向量机在分类识别前需要利用已知训练集进行训练的问题,本文提出了一种基于k均值的对无标识数据进行分类的支持向量机分类算法。首先利用k均值算法将未知数据划分成某个数量的子集,然后对新数据进行支持向量机训练得到决策边界与支持矢量,最后对无标识数据进行分类。模拟结果表明:训练时消耗的CHU时间为1.8280秒,支持向量个数为60时,分类错误率小于2%。  相似文献   

15.
支持向量机是一种能在训练样本数很少的情况下达到很好分类推广能力的学习算法.支持向量机在选择支撑矢量时却进行了大量不必要的运算,成为其应用的瓶颈问题.因此在基于支持向量的分类器学习算法中,预先选择支撑向量是非常重要的.投影中心距离算法是一种能够预选取支撑矢量的方法,该方法可以有效地预选取出包含支持向量的边界集,在不影响支持向量机的分类能力情况下,大大地减少了训练样本,提高了支持向量机的训练速度.本文采用投影中心距离算法进行支撑矢量的预选取,通过对人工线性、非线性数据及MINST字符库的实验证明了该方法的有效性和可行性.  相似文献   

16.
支持向量机是一种能在训练样本数很少的情况下达到很好分类推广能力的学习算法。支持向量机在选择支撑矢量时却进行了大量不必要的运算, 成为其应用的瓶颈问题.因此在基于支持向量的分类器学习算法中,预先选择支撑向量是非常重要的。投影中心距离算法是一种能够预选取支撑矢量的方法, 该方法可以有效地预选取出包含支持向量的边界集,在不影响支持向量机的分类能力情况下,大大地减少了训练样本,提高了支持向量机的训练速度。本文采用投影中心距离算法进行支撑矢量的预选取,通过对人工线性、非线性数据及MINST字符库的实验证明了该方法的有效性和可行性。  相似文献   

17.
提出一种基于双支持向量机的偏二叉树多类分类算法,偏二叉树双支持向量机多类分类算法.该算法综合了二叉树支持向量机和双支持向量机的优势,实现了在不降低分类性能的前提下,大大缩短训练时间.理论分析和UCI(University of California Irvine)机器学习数据库数据集上的实验结果共同证明,偏二叉树双支持...  相似文献   

18.
为了提高中心距离比值法预选取支撑矢量的效率,降低支撑矢量机的训练时间,引入自适应动态克隆算法对中心距离比值法的阈值进行优化,并将该算法应用于入侵检测中,提出了基于阈值优化的CDRM-SVM入侵检测算法.算法首先利用自适应动态克隆算法对中心距离比值法中的阈值进行优化,获得理想的阈值,从而可以提取出包含全部支撑矢量的边界矢量集,然后使用边界矢量集代替训练样本集进行支持矢量机的训练,大幅度减少了训练样本的数量,使支持矢量机的训练速度显著提高.同时,由于边界矢量集中包含了支撑矢量,因此,支撑矢量机的分类能力没有受到影响.采用KDDCUP 99数据集进行试验,试验结果表明:与传统方法相比,在保证性能的情况下,所提算法能够有效地降低支持向量机的训练时间.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号