首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 265 毫秒
1.
针对相机标定时难以建立精确的数学模型以及极限学习机(ELM)在隐层节点数少时逼近精度低的问题,提出了基于改进仿电磁学(EM)优化ELM的双目视觉相机标定方法。在标定过程中,采用极限学习机精确逼近图像坐标与世界坐标间的非线性关系,利用改进EM策略,包括使用自适应步长以及空间解收缩,优化ELM的输入权重和隐层偏置,提高ELM的收敛速度和泛化能力。实验结果表明,改进EM-ELM优化算法的收敛速度快于PSO的,且用更少的隐层节点数取得较高的标定精度。  相似文献   

2.
极限学习机(Extreme Learning Machine,ELM)是一种速度快,泛化能力强的训练单隐含层前馈神经网络(Single-hidden Layer Feed-forward Neural-network,SLFN)的算法.但是在应用ELM解决实际问题时,需要先确定合适的SLFN结构.然而,对于给定的问题,确定合适的SLFN结构是非常困难的.针对这一问题,本文提出了一种集成学习方法.用该方法解决问题时,不需要事先确定SLFN的结构.提出的方法包括3步:(1)初始化一个比较大的SLFN;(2)用ELM重复训练若干个Dropout掉若干个隐含层结点的SLFNs;(3)用多数投票法集成训练好的SLFNs,并对测试样例进行分类.在10个数据集上进行了实验,比较了本文提出的方法和传统的极限学习机方法.实验结果表明,本文提出的方法在分类性能上优于传统的极限学习机算法.  相似文献   

3.
基于PSO-ELM的双目视觉摄像机标定   总被引:1,自引:0,他引:1  
针对极限学习机( extreme learning machine,ELM)在隐层节点数较少时标定精度较低的问题,利用粒子群优化算法( particle swarm optimization,PSO)与极限学习机相结合的方法对双目视觉摄像机进行标定。在标定过程中,ELM直接描述图像信息与三维信息之间的非线性关系,然后利用PSO优化ELM的输入权值与隐层阈值。实验结果表明,与ELM相比较,基于粒子群极限学习机( PSO-ELM)的双目视觉摄像机标定方法能仅用较少隐层节点数获得较高精度。  相似文献   

4.
极限学习机(ELM)发展自单隐含层前馈神经网络算法,其理论简单,运行快速,应用非常广泛.为了提高ELM的泛化性能,提出了一种带有双并行结构的优化ELM算法(DPELM).在DP-ELM中,建立输入层和输出层间特殊的连接,使得DP-ELM的输出节点不仅可以接收隐含层节点的信息,也可直接接收输入节点的自信息.利用3组回归数据集验证算法性能,实验结果证明,与ELM相比,DP-ELM可以达到更好的回归精度以及更稳定的泛化能力.  相似文献   

5.
为了克服当前基于P300的测谎方法训练时间长、个体识别准确率不够高的缺点,提出了将主成分分析(Principal component analysis, PCA)和极端学习机(Extreme Learning Machine,ELM) 相结合的PCA_ELM测谎方法.该方法使用典型的三刺激测谎范式,记录30名随机划分的撒谎和无辜者在Pz电极上的脑电(EEG)信号, 选择探针刺激响应并对每名受试者的每5个响应波形进行平均,然后对两类信号提取小波特征.PCA被用于对原始特征空间进行特征选择.降维后的特征样本被送到ELM分类器,该分类器学习速度快,泛化能力强,但是对于其隐层节点数的指定一直未有有效的解决方法.我们通过对特征子空间的维数和ELM的隐层节点数进行二维的网格搜索算法,基于交叉验证的方法,对两个参数进行同步优化选择,训练得到最佳参数下的分类模型.实验结果表明,提出的PCA_ELM方法不仅在训测谎准确率上高于当前的广泛使用的分类模型,而且训练时间大大缩短,尤其适合于在线的测谎系统.  相似文献   

6.
最小学习机     
针对极端学习机(ELM)不能用于多层前向神经网络学习的问题,通过揭示单层前向神经网络(SLFN)的ELM与岭回归以及中心化的岭回归之间的关系,提出了SLFN的最小学习机.通过证明核化的中心化岭回归与核化的PCA之间的关系.提出以无限可微的核函数为激励函数的多层前向神经网络(MLFN)的最小学习机LLM.SLFN/MLFN的最小学习机能够保持ELM的上述优势.  相似文献   

7.
极限学习机(ELM)因其运算速度快、误差小等优点而得到广泛的应用,但由于随机给定输入权值和阈值可能导致隐含层节点无效,因此,ELM通常需要增加隐含层节点数来提高预测精度,从而导致网络泛化能力不佳。为了解决上述问题,提出一种和声搜索算法的极限学习机网络(HS-ELM),采用和声搜索算法不断调整ELM输入权值和隐含层阈值矩阵选取最优以达到优化网络的目的。最后通过两种复杂度不同的非线性函数拟合加以验证。结果表明,传统ELM网络平均预测误差为0.31×10-3%和1.6%,HS-ELM的平均预测误差为0.01×10-3%和0.4%。证明和声搜索算法优化后的ELM网络在同等情况下所需的隐含层节点数和预测精度均优于传统ELM网络的。  相似文献   

8.
一种基于粒子群优化的极限学习机   总被引:2,自引:0,他引:2  
极限学习机(ELM)是一种新型的前馈神经网络,相比于传统的单隐含层前馈神经网络(SLFN),ELM具有速度快、误差小的优点.由于随机给定输入权值和偏差,ELM通常需要较多隐含层节点才能达到理想精度.粒子群极限学习机算法为使用粒子群算法(particle swarm optimization,PSO)选择最优的输入权值矩阵和隐含层偏差,从而计算出输出权值矩阵.一维Sinc函数拟合实验表明,相比于ELM算法和传统神经网络算法,粒子群极限学习机算法依靠较少的隐含层节点能够获得较高精度.  相似文献   

9.
为准确预测瓦斯涌出量,提出人工鱼群算法(AFSA)优化极限学习机(ELM)的瓦斯涌出量AFSA-ELM预测模型.该模型采用AFSA对ELM中的输入连接权值和隐含层阈值进行优化选取,为提高模型泛化能力,以训练样本的10次10折交叉验证的均方根误差的平均值作为AFSA目标函数的适应度值.利用18组煤矿实测数据进行试验.研究结果表明:AFSA实现了对ELM性能的优化,AFSA-ELM预测模型对样本的拟合度高,且具有较高的预测精度和泛化能力,即AFSA-ELM预测模型可以有效地实现对矿井瓦斯涌出量的预测.  相似文献   

10.
极速学习机(Extreme learning machine,ELM)虽然已在理论和应用中证实有很好的泛化性能和极快的训练速度,但是在处理非均衡数据时,它更偏向多数类且极容易忽略少数类,基于数据重采样的集成学习可以帮助ELM解决少数类分类精度低的问题.提出一种按类别重采样技术并据此发展了一种ELM集成学习方法.该方法可充分利用少数类样本的信息,实验结果显示该方法性能明显优于单一的ELM学习模型.由于重采样是大数据处理的最核心的技术之一,该方法对非均衡大数据的学习模型建立有着一般性的指导意义.  相似文献   

11.
基于差分进化与RBF神经网络的热工过程辨识   总被引:1,自引:0,他引:1  
针对热工过程的非线性辨识问题,提出了一种基于差分进化算法(DE)的径向基函数神经网络(RBFNN)模型设计方法.该方法将DE算法的种群分解为几组并行的子种群,每组子种群对应于一类隐节点数相同的RBF网络.在RBFNN的学习过程中进行多子种群并行优化,从而实现RBF网络结构与参数的同时调整.算法可以利用热工对象的输入输出数据,自动设计出满足误差精度要求且结构较小的RBFNN模型.然后将该算法应用于热工对象的辨识,对于单输入单输出系统,得到的RBFNN模型只需1个隐节点.对于多输入单输出系统,RBF网络也仅需较少的隐层节点.仿真结果表明,用该方法设计的RBFNN模型结构简单,且辨识误差小,具有较好的泛化能力.  相似文献   

12.
为提高径向基函数神经网络的泛化性能,提出一种利用分级偏最小二乘回归方法构造径向基函数神经网络的方法,逐步增加网络中的隐节点数直至达到合适的网络规模,消除了训练数据中存在的多重共线性对网络泛化能力的不利影响.所得径向基函数神经网络的泛化能力比偏最小二乘回归构造的径向基函数神经网络提高了约30%.船舶航向跟踪预测控制仿真验证了该算法的可行性和有效性.  相似文献   

13.
最小学习机     
针对极端学习机(ELM)不能用于多层前向神经网络学习的问题,通过揭示单层前向神经网络(SLFN)的ELM与岭回归以及中心化的岭回归之间的关系,提出了SLFN的最小学习机。通过证明核化的中心化岭回归与核化的PCA之间的关系,提出以无限可微的核函数为激励函数的多层前向神经网络(MLFN)的最小学习机LLM.SLFN/MLFN的最小学习机能够保持ELM的上述优势。  相似文献   

14.
针对ELM神经网络隐含层节点数目需要人工设定,容易出现过拟合现象从而导致网络的泛化能力降低的问题,引出了基于误差最小化的ELM神经网络的改进方法 EM_ELM算法,并在理论上论证了EM_ELM算法对于提高ELM神经网络预测精度和泛化能力的可行性.随后将EM_ELM算法应用到FAST节点位移的预测模型中,并且进行了仿真验证.仿真结果表明虽然EM_ELM神经网络在训练时间上有了一定的损失,但是仍能满足实时性的要求,而且它的预测精度和泛化能力都得到提升,证明了改进算法的有效性与可行性,进一步说明了EM_ELM神经网络更适合应用于FAST节点位移预测.  相似文献   

15.
一种改进的RBF神经网络混合学习算法   总被引:3,自引:0,他引:3  
提出一种基于粒子群优化算法、K-means算法及减聚类算法的径向基函数(RBF)神经网络混合学习算法.该算法使用减聚类方法确定隐层节点数,具有自适应确定隐层节点的能力,避免了调整隐层节点的人为干预.通过K-means算法形成粒子群优化(PSO)算法初始粒子群,避免了初始粒子群的随机性,提高了粒子群优化算法的优选能力;采用PSO算法训练RBF神经网络中的所有参数.数值结果表明,改进的混合算法具有更高的分类准确率。  相似文献   

16.
 为准确预测司家营铁矿超大能力超细全尾砂浆体长距离管道自流输送的临界流速,对比传统的BP 神经网络、支持向量机(SVM),建立了以管道直径、物料平均粒径、浆体体重和体积浓度为输入因子,临界流速为输出因子的极限学习机(ELM)预测新模型。研究结果表明,ELM 模型与SVM 模型的相对误差均控制在5%以内,远低于BP 神经网络模型的9.56%。由于隐层节点参数均随机选取且无需调节,使得ELM 算法在隐层节点数为110 和200 时,训练时间仅为0.02 s 和0.05 s,远少于同节点状态SVM 模型的0.04 s 和0.095 s,且隐含节点数越多,训练时间差距越大,运算效率越高。  相似文献   

17.
为解决因庞大的矩阵存储和计算,ELM(Extreme Learning Machines)难以应用到大规模、高维数据集的问题,提出一种基于“分而治之”策略的并行极速学习机算法。
该算法利用二叉级联结构,将大规模数据集分派到多个计算节点上,并行地更新单隐层前馈网络的输出权值,且能有限步地单调收敛到最小二乘解。实验结果表明,该算法不仅泛化性能优异,并且具有非常高的加速比和并行效率。  相似文献   

18.
针对径向基神经网络(RBF NN)的隐节点数难确定的问题,提出了一种基于相似矩阵确定RBF网络隐层节点数的新方法。采用基于输入输出全部信息的模糊相似矩阵的平均矩阵元法自适应确定隐节点数。建立自动确定隐节点数、中心、宽度、权值等网络参数的RBF网络降水预报模型,对广西5月的平均日降水量进行仿真实验,结果表明,该方法确定的隐节点数,网络规模较小,模型切实可行,在预报性能上明显优于同期的T213(中国气象局的全球中期天气数值预报产品预报值)降水预报,可为RBF神经网络隐节点数确定提供新思路,在降水预报上有一定的参考价值。  相似文献   

19.
为了解决传统说话人识别系统在集成学习后识别速度变慢且容易过学习的问题,构造了一种基于最大后验矢量量化(VQMAP)模型和自适应提升(AdaBoost)学习算法的说话人识别系统.首先,分析了说话人识别系统中基分类器性能对集成分类器泛化误差的影响.然后,针对说话人的类别数,构造适当精度的VQMAP模型.最后,利用包含提前终止策略的AdaBoost学习算法将该模型提升为强分类器.实验结果表明:该算法的识别速度较高,是最大后验高斯混合模型(GMMMAP)的9倍;该算法可有效控制AdaBoost学习算法在说话人识别中的过学习问题,其性能优于VQMAP模型,且在训练数据较少或者类别数可预计的情况下,其性能可接近甚至超过GMMMAP模型.  相似文献   

20.
由于随机给定输入权值和偏差,极限学习机(extreme learning machine,ELM)通常需要较多隐含层节点才能达到理想精度.结合粒子群算法具有全局搜索能力的优势,提出一种基于改进ELM算法的纱线质量预测模型,采用改进粒子群算法优化ELM算法的输入权值矩阵和隐含层偏差,计算出输出权值矩阵,以减少隐含层节点数.试验结果表明,相比于ELM算法,改进ELM算法能够依靠更少的隐含层节点获得更高精度,相对误差降低2.70%,可为纱线质量预测与控制提供更有效的工具,具有广泛的推广实用性.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号