首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
针对单核极限学习机在泛化性能上存在一定局限性的问题, 提出将再生核函数与多项式核函数相结合, 建立一种新的组合核极限学习机模型, 使其具有全局核与局部核的优点, 并选择布谷鸟搜索算法对其参数进行优化选择. 仿真实验结果表明, 采用基于再生核的组合核函数作为极限学习机的核函数可行, 在实验数据集的多值分类和回归问题上, 与传统支持向量机及单核极限学习机相比, 该模型具有更好的泛化性能.  相似文献   

2.
针对单核极限学习机在泛化性能上存在一定局限性的问题, 提出将再生核函数与多项式核函数相结合, 建立一种新的组合核极限学习机模型, 使其具有全局核与局部核的优点, 并选择布谷鸟搜索算法对其参数进行优化选择. 仿真实验结果表明, 采用基于再生核的组合核函数作为极限学习机的核函数可行, 在实验数据集的多值分类和回归问题上, 与传统支持向量机及单核极限学习机相比, 该模型具有更好的泛化性能.  相似文献   

3.
蔡铁  伍星  李烨 《科学技术与工程》2008,8(12):3167-3170
提出一种新的基于离散化方法的支持向量机集成算法,该算法采用粗糙集和布尔推理离散化方法构造有差异的基分类器,进一步提高了集成学习机的分类性能.实验结果表明,所提算法具有明显优于单一支持向量机的分类性能,并能取得比传统的集成学习算法Bagging和Adaboost更高的分类正确率.  相似文献   

4.
本文将结构风险最小化原则引入极限学习机模型,建立了在考虑变形因子模式下大坝变形预报的正则化极限学习机模型。该模型不仅计算速度较快,而且具有较强的泛化能力。通过对实际工程监测数据的详细分析,结果表明正则化极限学习机模型可以避免原极限学习机模型会导致过学习现象发生的可能,且其预报精度要优于原极限学习机模型、支持向量机模型与BP神经网络模型。显示了将其应用于大坝变形数据分析与预报领域是完全行之有效的。  相似文献   

5.
小波核极限学习机及其在醋酸精馏软测量建模中的应用   总被引:1,自引:0,他引:1  
传统的机器学习算法一般通过迭代进行参数寻优,导致学习速度慢,且容易陷入局部最小值。针对这个问题,提出了一种基于小波核函数的极限学习机(KEML)的软测量建模方法,将支持向量机(SVM)中核函数的思想运用到极限学习机(EML)中,避免了SVM训练速度慢以及ELM算法不稳定的缺点。将KEML算法运用于醋酸精馏的软测量建模问题中,仿真实验结果验证了该算法的学习速度是SVM的92倍,且算法的精度以及模型的泛化能力都有所提高。  相似文献   

6.
针对时变工业过程建模中存在的模型泛化性和适应性较低的问题,利用移动窗技术,通过使用多个核函数,提出了一种基于移动窗的多核最小二乘支持向量机(LSSVM)建模算法.该算法在最小二乘支持向量机算法基础上,利用多核组合代替单核,增强了模型的泛化能力;利用移动窗技术,增加了模型对时变工业过程的动态辨识能力及模型的更新效率.仿真实验结果表明,该算法具有更好的泛化性能.  相似文献   

7.
代价敏感学习是机器学习中一个重要的领域.由Masnadi等提出的代价敏感的支持向量机通过将铰链损失函数代价敏感化来处理代价敏感问题,比传统的代价敏感学习方法具有更好的泛化精度.现实中的数据往往是通过在线增量式获取的,而传统的全量式学习算法每次增加样本时都需要重新从头计算,因此浪费了很多时间.为了使得代价敏感的支持向量机能够在在线学习的场景下具有更高的效率,提出了一种增量式的代价敏感支持向量机算法.该算法可以在新增样本时直接更新已有的训练过的模型,不需要从头开始重新训练.在多个数据集上的实验结果也显示出了该方法与传统的批处理方法相比,在速度上的具有显著的优势.  相似文献   

8.
结合LBP算子提取图像的局部纹理特征,在分类阶段根据优化解进行矩阵逆的区别计算并加入正则因子,最后结合在线学习方法,提出准确在线连续极限学习机的图像分类改进算法.实验结果表明,改进算法在图像分类方面比传统的极限学习机有更快的学习速度,更好的泛化性能.  相似文献   

9.
在电弧炉中建立大小合适的氧化镁熔池是制备氧化镁单晶的基础.为了实现对氧化镁熔池大小的控制,通过对电弧炉传热理论的分析,找出影响氧化镁熔池尺寸的主要因素,采用极限学习机对氧化镁熔池进行软测量研究,并通过与使用支持向量机的软测量模型进行比较检测了该模型的学习能力和泛化性能.实验结果表明,应用极限学习机极大地提高了前向神经网络的学习速度,同时具有较好的预测结果,有助于提高氧化镁熔池的控制精度.  相似文献   

10.
基于光滑化方法的支持向量回归算法   总被引:2,自引:0,他引:2  
支持向量机是在统计学习理论的基础上发展起来的新一代学习算法,由于其出色的泛化能力,在文本分类、手写识别、数据挖掘、生物信息学等领域中获得了较好的应用.提出了一种光滑支持向量回归算法,实验结果表明,它相对于其它回归训练方法有较快的收敛速度和较高的拟合精度.  相似文献   

11.
针对网络入侵检测准确率低、误报率高的状况,通过理论分析与仿真实验,提出一种利用粒子群优化的极限学习机入侵检测算法.该算法利用粒子群算法优化核极限学习机的核参数,采用学习能力和线性组合泛化能力强的全局性核函数,形成多核极限学习机,可以有效提高单核极限学习机分类器的性能.通过仿真实验对其性能进行了对比分析,结果验证了该算法的有效性.  相似文献   

12.
在研究聚类算法与极限学习机的基础上实现了一种具有模糊C均值聚类算法(FCM)预分类的核极限学习机(KELM)及其在彩色图像分割中的应用.该算法采用模糊C均值聚类算法预分类训练样本,再提取其图像特征作为特征属性对核极限学习机进行训练产生分类器,进而对彩色图像进行分割.经实验验证,该算法分割彩色图像在分割速度和精度上优于FCM预分类的BP人工神经网络以及FCM预分类的支持向量机,是一种高效的彩色图像分割算方法.  相似文献   

13.
基于主成份分析的Bagging集成学习方法   总被引:1,自引:0,他引:1       下载免费PDF全文
机器学习中数据集的冗余特征会影响学习器的泛化能力,一些流行方法如支持向量机和集成学习也难免于此.研究了利用主成份分析进行特征变换对Bagging集成学习算法的影响,提出一种称为PCA—Bagging的算法,并与其它算法比如单个支持向量机、支持向量机Bagging集成、带有特征变换的单个支持向量机等进行了性能比较.在多个UCI标准数据集上的实验表明PCA—Bagging算法具有更好的性能,这说明即使是泛化能力很强的集成学习方法其学习的数据也需要进行适当的特征变换。  相似文献   

14.
针对网络入侵检测准确率低、误报率高的问题,本文提出了一种基于粒子群优化和极限学习机的入侵检测算法。粒子群优化算法(PSO)是一种群智能算法,核极限学习机(KELM)是一种学习速度快、泛化能力强的经典核机器学习的方法,但是极限学习机对核函数及参数的选择直接影响它的分类性能。本文算法中利用粒子群算法优化核极限学习机的核参数,采用学习能力强且线性组合泛化能力强的全局性核函数,形成了多核极限学习机,可以有效提高单核极限学习机(ELM)分类器的性能。最后通过实验对算法性能做了对比分析,实验结果验证了本文算法的有效性。  相似文献   

15.
一种基于密度加权的最小二乘支持向量机稀疏化算法   总被引:4,自引:1,他引:3  
针对最小二乘支持向量机失去标准支持向量机稀疏特性的问题,提出了一种基于密度加权的稀疏化算法.首先计算样本的密度信息,对样本估计误差进行密度加权获得该样本对模型的可能贡献度;然后选取具有最大可能贡献度的样本作为支持向量,同时对支持向量样本邻域内的其他样本密度信息进行削减,从而避免相似样本被选中为支持向量;再选择剩余样本中具有最大可能贡献度的样本添加到支持向量集中,直到模型性能满足要求.仿真和实际应用表明,与Suykens提出的标准稀疏化算法相比,所提出的算法能有效剔除冗余支持向量,具有更好的稀疏性和鲁棒性.  相似文献   

16.
针对传统支持向量机对噪声敏感的问题,给出一种基于不对称形式的二次不敏感控制型ramp损失函数的支持向量回归机,采用凹凸过程优化和光滑技术算法,将非凸优化问题转化为连续且二次可微的凸优化问题,利用有限步终止的Amijo-Newton优化算法,求解所建立的优化模型,并分析了算法的收敛性.该算法不仅可以保持支持向量的稀疏性,而且还可以控制训练样本中的异常值.实验结果表明,该模型保持了很好的泛化能力,无论对模拟数据还是标准数据都具有一定的拟合精度,与标准支持向量机模型相比,不仅能够降低噪声和孤立点的影响,而且也具有较强的鲁棒性.  相似文献   

17.
基于支持向量机的混沌时间序列预测   总被引:1,自引:0,他引:1  
支持向量机(SVM)是一种基于结构风险最小化原理的学习技术,是一种具有很好泛化性能的回归方法.针对混沌时间序列特点,提出混沌时间序列预测的支持向量机建模的思路、特点及关键参数的选取.对模型进行了实例研究,结果表明该模型能较好地处理混沌时间序列,具有较高的泛化能力和很好的预测精度.  相似文献   

18.
为提高支持向量机集成的泛化性能,提出一种基于独立成分分析法的特征Bagging支持向量机集成方法,删除了冗余特征.该方法从得到的独立成分特征空间中提取特征子空间,避免了直接从原特征空间中随机选择特征子空间而导致的对特征依赖或相关性的破坏,提高了个体支持向量机的性能,保证了个体支持向量机之间的差异度.在UCI和Stat-Log数据集合上的仿真实验表明,该方法具有更好的泛化性能.  相似文献   

19.
在数据挖掘中,支持向量机是被广泛应用的一种分类算法,其核函数的选择及参数的设定没有有效的标准。本文采用混合核函数构造兼顾学习能力和泛化性能的支持向量机算法,并利用粒子群算法来确定支持向量机的参数。应用基于混合核函数的PSO-SVM算法对一个经典的分类测试数据集进行分类,将该算法与单一核函数支持向量机算法的分类结果进行比较,结果表明所提出的算法的分类性能有明显提升。  相似文献   

20.
提出一种基于数据关系(Data Relationship,DR)的多分类支持向量机(Support Vector Machine,SVM)学习算法(Multi-Classification SVM Algorithm Based on Data Relationship,DR-SVM).DR-SVM算法根据每类数据的关系(如向量积等)获取子学习嚣的冗余信息,从而优化多分类器组,然后通过经典的SVM算法训练分类器组.算法在简化分类器组的同时可对多类数据分类问题获得满意的泛化能力,在标准数据集上的实验结果表明,与经典的SVM多分类方法相比,DR-SVM具有更好的泛化性能,尤其对单个类别精度要求较高的数据尤其有效.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号