首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 78 毫秒
1.
基于SVM的分类算法与聚类分析   总被引:5,自引:0,他引:5  
运用结构风险最小化原理和聚类原理,将支持向量机中有监督的分类算法与统计中无监督的聚类算法有机地结合起来。对线性可分与线性不可分两种情况分别建立了无监督的分类模型,模型的求解转化为一个二次规划问题。同时此模型也适合于多分类情况,在应用到心脏病的医疗诊断中,准确率为88.5%,较以前的方法有了明显的提高。  相似文献   

2.
针对动态选择集成算法存在当局部分类器无法对待测样本正确分类时避免错分的问题,提出基于差异聚类的动态SVM选择集成算法。算法首先对训练样本实施聚类,对于每个聚类,算法根据精度及差异度选择合适的分类器进行集成,并根据这些分类器集成结果为每个聚类标定错分样本区,同时额外为之设计一组分类器集合。在测试过程中,根据待测样本所属子聚类及在子聚类中离错分样本区的远近,选择合适的分类器集合为之分类,尽最大可能的减少由上一问题所带来的盲区。在UCI数据集上与Bagging-SVM算法及文献[10]所提算法比较,使用该算法在保证测试速度的同时,能有效提高分类精度。  相似文献   

3.
基于二叉树的SVM多类分类算法研究   总被引:3,自引:0,他引:3  
支持向量机是一种高效的分类识别方法,在解决高维模式识别问题中表现出许多特有的优势.支持向量机本身是一个两类问题的判别方法,不能直接应用于多类问题.介绍了基于二叉树的SVM多类分类算法,通过对其原理和实现方法的分析,对这些方法的优缺点进行了归纳和总结,给出了进一步的研究方向.  相似文献   

4.
针对支持向量机中当样本集训练规模很大且存在野点时,其分类速度慢且精度不高的问题,提出一个支持向量机快速算法。其基本步骤是首先求取每类样本点的壳向量和中心向量,然后将求出的壳向量和中心向量合在一起,组成新的训练集进行训练,得到最终的分类器。实验表明采用这种学习策略,不仅大幅度降低了学习代价,而且获得的分类精度与直接通过大规模样本集训练得到的分类器的分类精度相当,同时分类速度也得到大幅度提高。  相似文献   

5.
基于数据分割和近邻对的快速SVM分类算法   总被引:1,自引:0,他引:1  
大样本的学习是支持向量机领域中的一个重要课题。基于数据分割和邻近对策略,提出了一种新的支持向量机分类算法。在新的算法中,首先利用c均-值聚类分别对数据集中的正负类进行聚类,把大数据集分割成互不相交的子集合;然后来自正负类的子集合两两组合形成多个二分类问题,并用SMO算法求解;最后用邻近对策略对未知数据进行识别。为了验证新算法的有效性,把它应用于5个UCI数据集,并和SMO算法做了比较。结果表明:新算法不仅大大地减少了大样本学习的训练时间,而且相应的测试精度几乎没有降低。  相似文献   

6.
利用有效集求解的SVM策略,采用SOR方法求解相应的子问题,使得改进算法能有效处理大规模非线性可分的问题,证明了改进算法的有限终止性。提出了可将此改进算法应用到增量学习SVM中。  相似文献   

7.
多类SVM分类算法的研究   总被引:3,自引:0,他引:3  
支持向量机(Support Vector Machine,SVM)是上世纪九十年代提出的一种基于小样本的新的统计学习方法,较好地解决了非线性、高维数、局部极小点等实际问题.文中分析了SVM基础理论并总结了目前存在的基于支持向量机的主要分类方法,包括"一对多"方法、"一对一"方法、决策有向无环图方法、基于二又树的多类分类方法和其它方法,并对各自的优缺点及性能做了比较.  相似文献   

8.
针对不平衡数据集数据分布不均匀及边界模糊的特点,提出基于局部密度改进的SVM不平衡数据集分类算法.该算法先将多数类划分成多个子类,并依据子类内每个样本的局部密度选出边界区域、靠近边界区域的与少数类数目相等的样本,与少数类完成SVM初始分类;用所得的支持向量机和剩余的多数类样本对初始分类器进行迭代优化.结果表明,与WSVM,ALSMOTE-SVM和基本SVM算法相比,该算法分类效果良好,能有效改进SVM算法在分布不均匀及边界模糊数据集上的分类性能.  相似文献   

9.
对预处理后的指纹图像进行分类相关算法研究,提出一种无需迭代的指纹参考点定位方法,该算法具有简单、快速、效果好的优点;基于指纹方向场的半区域特征提取方法,采用二叉树结构的支持向量机多分类策略解决指纹的多分类问题.实验表明,分类精度良好.  相似文献   

10.
基于SVM的空间数据库的层次聚类分析   总被引:7,自引:0,他引:7  
支持向量机用于两类问题的识别研究.本算法引入了SVM,构造二叉树对多类问题进行层次聚类分析.该算法采用SVM对两类问题进行识别,通过合并逐步由底向上构造二叉树,最终二叉树的数目即为聚类数.它适合任意形状的聚类问题,而且可以确定最优聚类的结果,并适于高维数据的分析.  相似文献   

11.
针对支持向量机(SVM)在处理大规模训练集时,训练速度和分类速度变慢的缺点,提出了一种基于卫向量的简化SVM模型.用对偶变换及求解线性规划方法提取卫向量,缩小训练集规模;在此基础上对训练得到的支持向量集,用线性相关性去除冗余支持向量,从而达到简化目的.对UCI标准数据集的实验表明:在保证不损失分类精度的前提下,该模型一定程度上改进了传统SVM,缩短了学习时间,取得了良好的效果.  相似文献   

12.
针对分类数据集合线性不可分的问题,改进了支持向量机(SVM)的分类方法,构建新的分类决策函数和高斯核函数.在支持向量机关键参数的优化环节,采用粒子群算法对惩罚参数和高斯参数进行优化,设计便于操作的优化流程,并针对Iris数据集合展开实验研究.结果表明:相比于基于遗传算法优化的SVM方法,所提出的方法执行速度快、分类准确率高.  相似文献   

13.
支持向量机(SVM)花费大量时间用于对非支持向量样本的优化.根据支持向量都是位于两类边界的靠近分类超平面的样本点,本文提出首先利用基于中心距离比值法排除大部分远离分类超平面的样本,然后以最小类间距离样本数作为测度进一步选择边界样本.得到包含所有支持向量的最小样本集,构成新的训练样本集训练SVM.将提出的算法应用于解决医学图像奇异点检测问题.实验结果表明.该算法减小了训练样本集的规模,有效地缩短了SVM训练算法的时间.同时获得了较高的榆出率.  相似文献   

14.
介绍了增量学习算法、序列最小优化算法、加权支持向量机算法等几种应用于大型数据库,在加快训练速度、降低分类错误率等方面有改进的SVM流行算法.在分析各种算法优缺点的基础上,提出了在线性样本训练、超大规模样本下满足KKT条件的算法是SVM算法的发展方向的观点.  相似文献   

15.
东营凹陷深部储层埋深大,构造及相带变化复杂,钻遇目标层的井少,储层预测有很大的困难。本文以东营凹陷东部孔一段为例,将适合较小样本预测的支持向量机方法(Support Vector Machine, SVM)应用到储层预测中。为了提高预测精度,惩罚因子选取和核函数参数训练过程中引入了交叉验证。输入样本为井点处的地震属性和储层厚度,属性通过井震关系优先,选取的是带宽、能量半时、最大振幅、均方根振幅、过零点个数和弧长等6种属性。预测结果表明,本文方法较常规的多元线性回归、不加交叉验证的SVM方法,有更高的预测精度,在深层勘探中有推广价值。  相似文献   

16.
对P2P的网络流量进行识别是P2P研究领域中的一个重大难题,为了实现对其管理,提出了一种基于支持向量机(SVM)的P2P流量分类管理模型.首先获取P2P网络流量数据,然后将获取的样本数据输入SVM并对SVM进行训练,最后将测试样本数据输入SVM进行P2P流量分类管理.仿真实验证明了该方法具有较高的检测率和较低的漏报率.  相似文献   

17.
疲劳驾驶是导致交通意外的一个重要原因,在车上装一个疲劳检测系统有助于预防交通事故的发生。现实条件下,司机的头和眼睛是不断运动的,使得疲劳特征提取变得比较困难,再加上外部干扰和光线条件的影响,准确判断司机的疲劳状态是一个具有挑战性的问题。本文介绍了一种利用支持向量机检测驾驶员疲劳状态的方法。首先采集驾驶员的头部视频,然后对视频图像进行处理,提取眼睛、嘴的视觉特征和点头频率变化情况,最后利用支持向量机依据这些特征来判断司机的疲劳状态。通过模拟实验,疲劳检测的准确率达到97.80%,表明该方法适合于驾驶员的疲劳检测。  相似文献   

18.
针对目前特征选择算法应用于数据分类精度不理想的问题, 提出一种基于最大相关最小冗余的特征选择算法, 该算法结合特征选择算法和聚类分析算法对特征进行处理, 将分类中冗余的特征去除. 利用支持向量机对一组心脏病患者实际测量得到的数据进行分类实验, 实验结果表明, 该方法可有效筛选影响分类的特征, 进而提高分类准确率.  相似文献   

19.
At present, studies on training algorithms for support vector machines (SVM) are important issues in the field of machine learning. It is a challenging task to improve the efficiency of the algorithm without reducing the generalization performance of SVM. To face this challenge, a new SVM training algorithm based on the set segmentation and k-means clustering is presented in this paper. The new idea is to divide all the original training data into many subsets, followed by clustering each subset using k-means clustering and finally train SVM using the new data set obtained from clustering centroids. Considering that the decomposition algorithm such as SVMlight is one of the major methods for solving support vector machines, the SVMlight is used in our experiments. Simulations on different types of problems show that the proposed method can solve efficiently not only large linear classification problems but also large nonlinear ones.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号