首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 265 毫秒
1.
针对自训练半监督支持向量机算法中的低效问题,采用加权球结构支持向量机代替传统支持向量机,提出自训练半监督加权球结构支持向量机。传统支持向量机需要求解二次凸规划问题,在处理大规模数据时会消耗大量存储空间和计算时间,特别是在多分类问题上更加困难。利用球结构支持向量机进行多类别分类,大大缩短了训练时间,降低了算法复杂度。球结构支持向量机在不同类别样本数目不均衡时训练分类错误倾向于样本数目较小的类别,通过权值的引入,降低了球结构支持向量机对样本不均衡的敏感性,补偿了类别差异对算法推广性能造成的不利影响。在人工数据集和UCI(university of california irvine)数据集上的实验结果表明,该方法对有标记样本的鲁棒性较好,不仅能够提高效率,且分类精度也有显著提高。  相似文献   

2.
基于加权超球支持向量机算法的超文本分类研究   总被引:3,自引:0,他引:3  
为提高超文本分类算法的性能,降低算法的复杂度,提出一种适用于超文本分类的加权超球支持向量机算法.该算法综合文档内容信息和超链接信息作为文档特征向量,针对传统超球支持向量机算法在不同类别样本数目不均衡时训练分类错误倾向于样本数目小的类别的问题,利用加权因子补偿了类别差异对算法推广性能造成的不利影响.在基准数据集上的测试结果表明,该算法降低了二次规划的复杂度,提高了分类器的分类性能.  相似文献   

3.
为解决多分类问题,基于因素空间理论中因素显隐的思想,在扫类连环分类算法基础上,定义类别的合并,提出因素显隐的合并扫类连环分类方法,给出算法步骤,并用数值算例进行分析;定义类别的两两组合,提出因素显隐的两两扫类连环分类方法,给出算法步骤,并用数值算例进行分析。提出采用因素显隐的差额绝对值方法解决两个算法执行过程中出现的决策类别分不开的问题;对UCI数据集中3个实例与支持向量机作了算法对比分析,研究结果表明:提出的合并扫类连环分类方法、两两扫类连环分类方法实现了因素显隐,分类算法的精确度优于支持向量机。多分类学习的因素显隐研究结论拓展了因素空间的理论及应用研究。  相似文献   

4.
针对遥感影像分类过程中混合像元难判别的问题, 提出一种基于Gustafson-Kessel模糊聚类算法的支持向量机(SVM)分类模型. 以Gustafson-Kessel算法优选训练样本方式提高支持向量机的分类性能. 为验证其有效性, 将该模型应用于森林覆盖类别分类, 并与标准支持向量机模型分类结果对比. 实验结果表明, 该方法能提高支持向量机对混合像元划分的精度.  相似文献   

5.
支持向量机基于统计学习理论,是一种新型通用的有监督的机器学习方法,其核心思想是使结构风险极小化,但是由于需要求解二次规划,使得它在求解大规模数据上具有一定的局限性,尤其是对于多分类问题,现有的支持向量机算法具有很高的复杂性.本文构造了基于线性规划的一对一三类结构支持向量分类器,可以直接利用比较成熟的线性规划算法——预测-校正原对偶内点法,并在此基础上提出了基于预测-校正原对偶内点法的支持向量机的多分类学习算法,这种算法可用于比较庞大的多类别识别问题,并且克服了标准支持向量机的一些缺点,而且模型简单,容易实现.针对UCI数据库上数据进行了实验,结果证实该算法具有较高的可行性和实用性.  相似文献   

6.
文本分类是指按照预先定义的主题类别,为文档集合中的每个文档确定一个类别,文本分类是文本挖掘的一个重要内容。本文分别介绍了文本分类技术和支持向量机的概念,并阐述了支持向量机(SVM)在文本分类中的应用及其发展趋势。  相似文献   

7.
基于广义加权支持向量机的焊接缺陷分类方法   总被引:1,自引:0,他引:1  
提出了一种广义加权支持向量机(GWSVM)的焊接缺陷分类算法。首先为克服由于样本数量不平衡性引起的小样本类别精度差的问题,引入由于样本差异的权重;然后为解决不同类别的重要性要求,根据经验人工确定不同类别重要性的权重。针对样本重要性的影响,采用有监督模糊聚类方法来确定样本重要性权重。测试结果表明:广义加权支持向量机在噪声影响较大及样本类别相差较大时,能够提高重要的、数量少的缺陷检测精度。  相似文献   

8.
针对在支持向量机研究中,传统的优化方法无法处理规模不断扩大的训练集问题,为开发适应大样本的训练算法,利用LS-SVM(Least Square Support Vector Machines),提出了一种自适应迭代算法。在该算法的训练过程中,块增量学习和逆学习交替进行,能够自动得到一个小的支持向量集。将该算法与SVMLight在支持向量数量方面进行了比较,计算了UCI(University of California-Irvine)中的6个数据集和著名的Checkboard问题。结果表明,该自适应迭代算法确定的支持向量数一般不到SVMLight所得到的支持向量数的一半,其中70%多的支持向量被SVMLight所确定的支持向量集所包含,在支持向量选择方面具有高效性。  相似文献   

9.
为解决支持向量机在分类识别前需要利用已知训练集进行训练的问题,本文提出了一种基于k均值的对无标识数据进行分类的支持向量机分类算法。首先利用k均值算法将未知数据划分成某个数量的子集,然后对新数据进行支持向量机训练得到决策边界与支持矢量,最后对无标识数据进行分类。模拟结果表明:训练时消耗的CHU时间为1.8280秒,支持向量个数为60时,分类错误率小于2%。  相似文献   

10.
针对原始的有向无环支持向量机(Directed Acyclic Graph Support Vector Machine,DAGSVM)多类文本分类算法结构图中存在误差累积以及路径冗余的问题,提出一种改进的有向无环图支持向量机多类文本分类算法。将易于分离的那些类两两组成两类分类器放置在结构图的上层,有效克服了误差累积问题,通过将原始的分类结构图改造为U形图以及引入集合运算进行类别判定,有效剪除冗余路径并降低时间复杂度。实例表明,该算法能有效提高类别判定的准确率并降低时间复杂度。  相似文献   

11.
支持向量机方法已经成功地应用于解决分类和回归问题,但是在训练支持向量机时需要求解二次规划问题,使得支持向量机的训练时间过长,训练样本量越大,这个缺陷越明显.将超球方法与回归支持向量机相结合,提出一种增量学习的新方法.该方法使用两个同心超球缩减训练集,以达到提高训练速度的目的.通过分析表明,这种新的增量学习方法较普通支持向量机训练方法有较低的计算复杂度.实验结果表明,该算法可以在不降低预测准确性的同时减少大量建模时间.  相似文献   

12.
Support vector machines (SVMs) have widespread use in various classification problems. Although SVMs are often used as an off-the-shelf tool, there are still some important issues which require improvement, such as feature rescaling. Standardization is the most commonly used feature rescaling method. However, standardization does not always improve classification accuracy. This paper describes two feature rescaling methods: multiple kernel learning-based rescaling (MKL-SVM) and kernel-target alignment-based rescaling (KTA-SVM). MKL-SVM makes use of the framework of multiple kernel learning (MKL) and KTA-SVM is built upon the concept of kernel alignment, which measures the similarity between kernels. The proposed methods were compared with three other methods: an SVM method without rescaling, an SVM method with standardization, and SCADSVM. Test results demonstrate that different rescaling methods apply to different situations and that the proposed methods outperform the others in general.  相似文献   

13.
Support vector machines (SVMs) have been introduced as effective methods for solving classification problems. However, due to some limitations in practical applications, their generalization performance is sometimes far from the expected level. Therefore, it is meaningful to study SVM ensemble learning. In this paper, a novel genetic algorithm based ensemble learning method, namely Direct Genetic Ensemble (DGE), is proposed. DGE adopts the predictive accuracy of ensemble as the fitness function and searches a good ensemble from the ensemble space. In essence, DGE is also a selective ensemble learning method because the base classifiers of the ensemble are selected according to the solution of genetic algorithm. In comparison with other ensemble learning methods, DGE works on a higher level and is more direct. Different strategies of constructing diverse base classifiers can be utilized in DGE. Experimental results show that SVM ensembles constructed by DGE can achieve better performance than single SVMs, hagged and boosted SVM ensembles. In addition, some valuable conclusions are obtained.  相似文献   

14.
对于多类别的细粒度情感分类任务,目前主流的少样本学习方法不能取得较好的性能。针对这一问题,提出一种基于联合学习的少样本多类别情感分类方法。采用基于替换词检测任务的少样本学习方式,将回归和分类的替换词检测模板以及标签描述词同时添加至输入语句,从而将细粒度情感分类任务同时建模为分类问题和回归问题。在此基础上,设计了不同的融合方法进行联合学习。实验结果表明,与主流少样本学习方法相比,该方法在F1-Score和正确率上都取得更优的结果。  相似文献   

15.
支持向量机作为一种重要的机器学习工具,近年来受到了广泛的关注,并得以迅速发展.但在处理大数据时,求解支持向量机对应的二次规划问题是非常棘手的,计算时间长,存储空间大.如何有效求解支持向量机是一个不可回避的研究课题.本文主要研究了如何利用牛顿法求解支持向量机和双生支持向量机,并提出了两个新算法.实验结果表明,所提算法是有效和高效的.  相似文献   

16.
简要介绍了基于统计学习理论中结构风险最小化原则的支撑向量机(SVMs)技术的国内外研究现状,分析了该技术的优越性和存在的某些局限,并提出了该技术的一些改进思路.  相似文献   

17.
遥感影像分类与识别是近年来深度学习以及图像分类与识别研究的热点,其中一个关键问题是因样本数据集的数据较少而极易出现过拟合。许多图像分类的模型和方法并不完全适用于遥感影像分类,将小样本学习与遥感影像处理结合起来,实现遥感影像数据增强和识别模型优化是一个可行的思路。根据小样本学习的发展现状,针对特征提取、模型分类方法,归纳总结了典型学习方法的原理及其在相关领域的应用; 分析遥感影像处理的现状和存在问题,基于适用场景、优缺点对各方法进行了比较; 通过分析小样本学习在高分遥感影像分类与识别上的应用,发现引入注意力机制和迁移学习后,小样本学习能够用于样本数据量小的遥感影像分类。  相似文献   

18.
求解支持向量机大规模分类问题时,系数矩阵的存储和计算是非常困难的.借助分解技术,把问题分解成多个维数较低的二次规划问题.利用增广拉格朗日函数将子问题转化成只含有界约束的形式,再用修正子空间有限记忆BFGS方法解子问题,节省了存储空间,提高了求解效率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号