首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对目前支撑向量机(SVM)核函数的选择没有统一规则的现状,提出一种结合数据分布特征进行SVM核选择的方法.首先,采用多维尺度(MDS)分析方法对高维数据集合理降维,提出判断数据集是否呈圆球分布的算法;然后,在得到数据集分布特征的基础上进行SVM核选择,以达到结合数据分布特征合理选择SVM核函数的目的.实验结果表明:呈圆球分布的数据集采用球面坐标核进行分类,识别率达到100%,训练时间最短,优于采用高斯核SVM及多项式核SVM的分类效果.  相似文献   

2.
针对目前支撑向量机核函数的选择没有统一规则的现状,提出了一种结合数据分布特征进行支撑向量机核选择的方法。首先,采用多维尺度分析方法对高维数据集合理降维,提出判断数据集是否呈圆形分布的算法,在得到数据集分布特征的基础上进行核选择,达到结合数据分布特征合理选择支撑向量机核函数的目的。实验结果表明:呈圆形分布的数据集采用极坐标核进行分类,识别率达到100%,训练时间短,优于采用神经网络、决策树、高斯核及多项式核的分类效果。该方法提高了支撑向量机的泛化能力。  相似文献   

3.
核选择是支撑向量机(Support Vector Machine,SVM)研究中的核心问题之一.文章提出了一种基于数据分布特征的SVM核函数选择方法.分析了几种常用核函数的性能,提出了判断数据呈环形分布的方法,探讨了SVM核函数及其参数选择与数据分布的相关性.数值实验说明了该方法的可行性与有效性.  相似文献   

4.
由于数据量的不断增长,出现了大量的不平衡高维数据,传统的数据挖掘分类算法在处理这些数据时,易受到样本分布和维数的影响,存在分类性能不佳的问题.提出一种针对不平衡高维数据集的改进支持向量机(Supported Vector Machine,SVM)分类算法,首先通过核函数将数据集映射到特征空间中,再引入改进的核SMOTE(Kernel Synthetic Minority Over-sampling Technique)算法而得到正类样本,使两类样本数目平衡化;然后将维数高的数据集通过稀疏表示的方法投影到低维的空间中,实现降维;最后根据空间的距离关系来确定在输入空间中合成样本的原像,再对得到的平衡样本集通过SVM来分类,通过仿真实验验证了该算法对于高维不平衡数据集有较优的分类性能.  相似文献   

5.
分形理论下支持向量机核函数选择   总被引:1,自引:0,他引:1  
支持向量机(support vector machine,SVM)是一种基于核的机器学习方法,不同的核函数对SVM的性能影响显著,如何针对具体问题获得一种有效的核函数选择方法成为SVM研究领域的一个重要问题。目前核函数选取仍是一个开放性的问题,存在着一系列的偶然性和局限性。而针对相对复杂问题时,使用何种类型的单一基核函数难以反映出其分布特征。因此,提出一种基于分形理论的核函数选择方法,在考虑不同核函数度量特征的同时,结合具体问题样本分布特征合理构造或选择核函数类型,并通过数据仿真以及相似性对比验证了算法的合理性。  相似文献   

6.
SVM是人脸识别中最常使用的一种机器学习领域算法,它通过距离概念得到对数据分布的结构化描述,降低了对数据规模的要求,适合处理人脸图像这种小样本训练集的分类问题。其中SVM的核函数的选择对分类精度影响很大,全局核函数的预测函数对输出进行正确预测的能力较高,而局部核函数具有较强的学习能力,兼顾两者特点,使用结合RBF核和Sigmoid核的混合核来设计SVM分类器进行识别。针对ORL库进行PCA特征提取,然后使用基于混合核的SVM分类器进行识别分类。实验结果表明,在识别率上,基于该混合核函数的SVM分类器比基于普通核函数SVM分类器要更占优势。  相似文献   

7.
区间型数据是属性特征取值为区间的一类数据。由于区间型数据上下界的特殊结构,传统的支持向量机无法直接对其进行处理。针对区间型数据的分类问题,本文提出了面向区间型数据的不同区间核SVM分类模型。除之前提出的高斯区间核外,该方法通过引入调节因子,均衡区间中值与区间半径之间的关系,并据此相继构造出线性区间核、多项式区间核和Sigmoid区间核,用以衡量两个区间型数据数据间的相似性,然后将多种区间核函数集成在一个分类模型中,通过选择区间核类型建立相应的区间核SVM分类模型。在人造数据集和真实数据集上的实验结果表明,GIK_SVM的最优值最多,PIK_SVM的平均分类精度最优,说明不同分布的数据集选择合适的区间核SVM分类模型十分重要。  相似文献   

8.
核函数的选择对支持向量机的分类结果有着重要的影响,为了提高核函数选择的客观性,提出了一种以错分实例到支持向量所在界面的距离来表示错分程度,并基于此进行秩和检验的核函数选择方法.通过与K-折交叉验证、配对t测试等参数检验的统计方法进行对比分析,对9种常用核函数的分类能力在15个数据集进行了定量研究.与参数检验方法不同,秩和检验并未假定数据的分布情况(很多情况下数据并不满足假定的分布),而且数据实验证明,秩和检验不但能够对核函数的分类能力进行客观评估,而且在某些数据集上还能产生更好的核函数选择效果.  相似文献   

9.
针对支持向量机(SVM)分类器的模型选择问题,提出了一种基于特征空间的类别可分性度量(FCSM)准则,并将该准则用于优化多个高斯函数的线性组合系数.与核矩阵度量(FSM)准则相比,FCSM准则在核函数优化应用中的适用性更广,并且在优化效果上有更好的理论支持.实验结果表明,与交叉验证法、半径间隔误差(RM)界法以及基于FSM准则的优化方法相比,FCSM准则能从更大函数集范围优选出核函数,使SVM分类器获得更好的分类能力.  相似文献   

10.
支持向量机(support vector machine,SVM)分类性能主要受到SVM模型选择(包括核函数的选择和参数的选取)的影响,目前SVM模型参数选择的方法并不能较好地确定模型参数。为此基于Fisher准则提出了SVM参数选择算法。该算法利用样本在特征空间中的类别间的线性可分离性,结合梯度下降算法进行参数寻优,并基于Matlab实现选择算法。实验结果表明参数选择算法既提高了SVM训练性能,又大大减少了训练时间。  相似文献   

11.
不平衡数据集广泛存在,对其的有效识别往往是分类的重点,但传统的支持向量机在不平衡数据集上的分类效果不佳.本文提出将数据采样方法与SVM结合,先对原始数据中的少类样本进行SMOTE采样,再使用SVM进行分类.人工数据集和UCI数据集的实验均表明,使用SMOTE采样以后,SVM的分类性能得到了提升.  相似文献   

12.
采用合成核函数构造支持向量机模型,运用粒子群优化算法(PSO)对模型参数进行参数寻优,利用UCI数据集的数据进行分类验证.与单核SVM相比,该方法具有更好的分类能力和运算速度.将合成核SVM应用到风机齿轮箱的故障诊断中,取得了良好的效果.  相似文献   

13.
一种基于关联规则的核粒度支持向量机   总被引:1,自引:0,他引:1  
提出一种基于关联规则的核粒度支持向量机(association rules based kernel granular SVM,AR-KGSVM)学习算法.AR-KGSVM首先将输入空间中的样本用核函数映射到高维特征空间,然后在核特征空间挖掘基于距离度量的关联规则以划分粒.算法的粒划分和数据训练都是在高维核空间中进行,避免了一般的粒度支持向量(granular SVM,GSVM)在低维空间作粒划分而在高维空间中训练,使数据分布不一致而导致泛化能力不高的问题.在标准数据集上的实验结果表明AR-KGSVM的泛化能力优于传统的SVM和GSVM方法.  相似文献   

14.
提出一种基于语义核函数的问题分类算法,该算法基于问题的语法结构构建支持向量机(SVM)核函数.首先,将给定的问题解析为语法树结构,用语法树的子树表示该问题;然后,从词法、语法、语义三个层面提取问题的特征,构成更加丰富的特征空间;接着,基于问题的语法树构建核函数;最后,使用潜在语义索引方法并结合问题的词法、语法以及语义特征,通过语义核函数将特征空间映射到更有效的空间中进行问题分类.TREC数据集上的实验结果表明,通过词法、语法以及语义增强的问题特征空间可以提高分类准确率.  相似文献   

15.
通过核函数技巧,定义了高维空间中两样本点之间的距离.引入异类距离平方阵,提出了一种新的选择SVM核参数准则,并给出算法,即max-min方法.该方法利用不同类的训练样本之间的距离,而不通过SVM标准样本训练寻求最优的(或有效的)核参数,避免了传统SVM在模型选择上经验性强和计算量大的不足.同时又分别以径向基核函数(RBF)和多项式函数为例进行试验,显示采用该方法的算法步骤.结合试验结果,得出关于核参数的选择问题一般在一个开集内只有有效值,不存在最优值,即是一个多目标优化问题的结论.并引用已有的实验结果充分支持我们的结论.max-min方法不仅在理论上提供了一种选择最优核参数的方法,而且对试验性选择具有指导作用.  相似文献   

16.
主流句子分类算法采用单一词向量表示模型获得文本表示,导致了对文本的映射能力不足.对此,通过融合多种词向量的文本表示以提高分类的准确率.针对多核学习在融合不同核函数时,常规的核函数系数寻优方法存在的训练时间长、难以求得局部最优解等问题,提出了一种新的核函数系数寻优方法,该方法基于参数空间分割与广度优先搜索不断逼近核系数的最优值.以支持向量机(support vector machine,SVM)为分类器,在7个文本数据集上进行了分类实验.实验结果表明,多核学习分类效果明显优于单核学习,并且所提出的寻优方法在训练次数少于常规方法时也能获得了好的分类效果.  相似文献   

17.
基于多核函数的模糊支持向量机学习算法
  总被引:1,自引:0,他引:1  
作者针对单个核函数构成的SVM并不能满足诸如数据异构或不规则、样本规模巨大、样本分布不平坦等实际应用的需求,而将多个核函数进行组合,以获得更好的效果,提出一种基于多核的模糊支持向量机算法。此算法决策树中的模糊核权重主要是借助于样本各自的模糊因子来确定。仿真实验数据表明:与传统单核函数支持向量机相比,多核模糊支持向量机具有很好的优越性。  相似文献   

18.
支持向量机(SVM)是一种新的机器学习方法,已经广泛应用于模式识别和函数估计等问题中.针对现有的加权支持向量机(WSVM)和模糊支持向量机(FSVM)只考虑样本重要性而没有考虑属性重要性对分类结果的影响的缺陷,提出了基于样本属性重要度的支持向量机方法,该方法首先利用信息论中的信息增益技术计算各个样本特征属性对分类属性的重要度,然后对所有样本的同一特征属性的值分别用对应的属性重要度进行加权,最后所得数据集用于训练和测试SVM.数值实验的结果表明,该方法提高了分类器的分类精度.  相似文献   

19.
核函数作为样本相似性的衡量尺度是影响支持向量机分类效果的重要因素。为了使相似性衡量尺度与样本特征的分布特点相适应,提出利用相似度分割特征集的混合核函数构造方法。通过研究每维特征在不同相似性函数下的区分能力,将特征集分割成相应的特征子集,并根据特征子集在分类中的重要性程度,对相应的样本相似度矩阵进行线性加权,得到最终的分类结果。实验结果表明,文中提出的混合核可以同时具有多种不同特性核函数的优点,改善了支持向量机分类器性能。  相似文献   

20.
针对支持向量机(SVM)分类器参数选择问题,提出了基于鸟群算法(BSA)的SVM参数选择方法(BSASVM),以优化SVM惩罚参数和核参数.鸟群算法具有优化精度高、鲁棒性好等特点,将SVM参数作为鸟群算法目标函数的优化参数,在搜索到最优值的同时得到最优参数.通过8个UCI标准数据集的MATLAB仿真对比实验,验证了BSA-SVM能有效提高分类准确性.实验结果表明:BSA-SVM能更加准确地找到SVM最优参数,从而加强SVM学习与泛化能力,是一种有效的SVM参数优化方法.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号