首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
为实现弹药传输机械臂中不可测参数的辨识,建立了机械臂的虚拟样机,并将其作为样本数据的来源;考虑到样本数据的连续性和平滑特性,使用函数型数据分析和函数型主成分分析对样本数据进行了特征提取,并利用提取的特征参数和待辨识参数作为训练样本对极限学习机(ELM)进行了训练.为提高极限学习机的辨识精度和泛化能力,利用粒子群算法对极限学习机的输入层与隐含层的连接权值和隐含层节点的阈值进行了优化.最后,分别利用仿真数据与测试数据对此方法进行了验证,仿真数据的辨识结果表明,优化后的极限学习机具有更高的辨识精度和泛化能力;同时,通过对比将测试数据的辨识结果代入模型中进行仿真得到的支臂角速度与测试角速度,验证了此方法的可行性和有效性.  相似文献   

2.
传统的神经网络学习算法(如BP算法)需要调整大量的网络参数,例如输入权值以及隐层单元的偏置,而极速学习机只需要设置网络的隐层节点个数,在算法执行过程中不需要调整网络的输入权值,便可以产生唯一的最优解,因此它具有学习速度快且泛化性能好的优点.随着极速学习机的研究发展,核极速学习机的相关理论被提出.核极速学习机是将核函数引入到极速学习机中,可以得到最小二乘解,具有更稳定的泛化性能.本文在核极速学习机的基础上提出了一种基于Bagged聚类核的核极速学习机的分类方法,首先对已有的标记样本和所有的无标记样本采用多次k均值聚类,去构造Bagged聚类核,然后对Bagged聚类核和径向基核进行求和,最终用于核极速学习机的训练中.与传统核极速学习机相比,本文提出的方法可以使用所有的无标记样本,从而尽可能地提高分类的准确率.最后本文通过实验验证了方法的可行性.  相似文献   

3.
针对ELM神经网络隐含层节点数目需要人工设定,容易出现过拟合现象从而导致网络的泛化能力降低的问题,引出了基于误差最小化的ELM神经网络的改进方法 EM_ELM算法,并在理论上论证了EM_ELM算法对于提高ELM神经网络预测精度和泛化能力的可行性.随后将EM_ELM算法应用到FAST节点位移的预测模型中,并且进行了仿真验证.仿真结果表明虽然EM_ELM神经网络在训练时间上有了一定的损失,但是仍能满足实时性的要求,而且它的预测精度和泛化能力都得到提升,证明了改进算法的有效性与可行性,进一步说明了EM_ELM神经网络更适合应用于FAST节点位移预测.  相似文献   

4.
谢文兰 《广东科技》2011,20(14):72-73
BP神经网络是最著名的多层前向反馈式神经网络训练算法之一,如何提高BP神经网络的泛化能力成为人们研究的热点。本文从构造训练样本集、对样本集的处理、如何选取隐层节点以及对标准BP算法的改进这几个方面,对BP神经网络的泛化能力进行了分析和总结。  相似文献   

5.
极限学习机(ELM)发展自单隐含层前馈神经网络算法,其理论简单,运行快速,应用非常广泛.为了提高ELM的泛化性能,提出了一种带有双并行结构的优化ELM算法(DPELM).在DP-ELM中,建立输入层和输出层间特殊的连接,使得DP-ELM的输出节点不仅可以接收隐含层节点的信息,也可直接接收输入节点的自信息.利用3组回归数据集验证算法性能,实验结果证明,与ELM相比,DP-ELM可以达到更好的回归精度以及更稳定的泛化能力.  相似文献   

6.
一种基于粒子群优化的极限学习机   总被引:2,自引:0,他引:2  
极限学习机(ELM)是一种新型的前馈神经网络,相比于传统的单隐含层前馈神经网络(SLFN),ELM具有速度快、误差小的优点.由于随机给定输入权值和偏差,ELM通常需要较多隐含层节点才能达到理想精度.粒子群极限学习机算法为使用粒子群算法(particle swarm optimization,PSO)选择最优的输入权值矩阵和隐含层偏差,从而计算出输出权值矩阵.一维Sinc函数拟合实验表明,相比于ELM算法和传统神经网络算法,粒子群极限学习机算法依靠较少的隐含层节点能够获得较高精度.  相似文献   

7.
极限学习机(ELM)因其运算速度快、误差小等优点而得到广泛的应用,但由于随机给定输入权值和阈值可能导致隐含层节点无效,因此,ELM通常需要增加隐含层节点数来提高预测精度,从而导致网络泛化能力不佳。为了解决上述问题,提出一种和声搜索算法的极限学习机网络(HS-ELM),采用和声搜索算法不断调整ELM输入权值和隐含层阈值矩阵选取最优以达到优化网络的目的。最后通过两种复杂度不同的非线性函数拟合加以验证。结果表明,传统ELM网络平均预测误差为0.31×10-3%和1.6%,HS-ELM的平均预测误差为0.01×10-3%和0.4%。证明和声搜索算法优化后的ELM网络在同等情况下所需的隐含层节点数和预测精度均优于传统ELM网络的。  相似文献   

8.
为准确预测瓦斯涌出量,提出人工鱼群算法(AFSA)优化极限学习机(ELM)的瓦斯涌出量AFSA-ELM预测模型.该模型采用AFSA对ELM中的输入连接权值和隐含层阈值进行优化选取,为提高模型泛化能力,以训练样本的10次10折交叉验证的均方根误差的平均值作为AFSA目标函数的适应度值.利用18组煤矿实测数据进行试验.研究结果表明:AFSA实现了对ELM性能的优化,AFSA-ELM预测模型对样本的拟合度高,且具有较高的预测精度和泛化能力,即AFSA-ELM预测模型可以有效地实现对矿井瓦斯涌出量的预测.  相似文献   

9.
针对相机标定时难以建立精确的数学模型以及极限学习机(ELM)在隐层节点数少时逼近精度低的问题,提出了基于改进仿电磁学(EM)优化ELM的双目视觉相机标定方法。在标定过程中,采用极限学习机精确逼近图像坐标与世界坐标间的非线性关系,利用改进EM策略,包括使用自适应步长以及空间解收缩,优化ELM的输入权重和隐层偏置,提高ELM的收敛速度和泛化能力。实验结果表明,改进EM-ELM优化算法的收敛速度快于PSO的,且用更少的隐层节点数取得较高的标定精度。  相似文献   

10.
随着遥感技术的突飞猛进,遥感图像目标识别在军事方面以及民用方面都有重要的应用.但是在对遥感图像目标识别的过程中,由于遥感图像的高分辨率等客观条件限制,无法实现对目标实时和精确的识别.极速学习机具有很快的学习速度并且是一次完成的,在小样本学习的问题中得到了广泛的应用.可以先对遥感图像进行特征提取,然后用极速学习机的神经网络方法对遥感图像目标进行识别,这是解决问题的一种有效方法.本文首先在极速学习机的基础上针对极速学习机隐层神经元过多的问题进一步提出隐层神经元数目自动确定的自适应极速学习机的算法,然后介绍了遥感图像特征提取的方法,最后通过实验仿真验证自适应极速学习机算法在遥感图像目标识别上的准确性和实用性.  相似文献   

11.
由于随机给定输入权值和偏差,极限学习机(extreme learning machine,ELM)通常需要较多隐含层节点才能达到理想精度.结合粒子群算法具有全局搜索能力的优势,提出一种基于改进ELM算法的纱线质量预测模型,采用改进粒子群算法优化ELM算法的输入权值矩阵和隐含层偏差,计算出输出权值矩阵,以减少隐含层节点数.试验结果表明,相比于ELM算法,改进ELM算法能够依靠更少的隐含层节点获得更高精度,相对误差降低2.70%,可为纱线质量预测与控制提供更有效的工具,具有广泛的推广实用性.  相似文献   

12.
针对极限学习机隐含层神经元个数选取的问题,提出以粒子群优化算法搜索最佳隐含层神经元个数,用极限学习机模型的测试准确率作为粒子群优化算法适应值的方法(PSO-ELM)。基于手写数字数据集digits分别对比了随机设置隐含层神经元个数的极限学习机、用粒子群算法优化的极限学习机输入权重和隐层偏置的极限学习机(PSO-ELM)、传统的BP算法以及SVM算法对手写数字的识别率,对比结果表明,粒子群优化算法得到的隐含层神经元个数在极限学习机中拥有较高的准确率。  相似文献   

13.
一种改进的AdaBoost算法——M-AsyAdaBoost   总被引:1,自引:0,他引:1  
提出一种Asymmetric AdaBoost改进算法——M-Asy AdaBoost.M-Asy AdaBoost算法通过新的样本权重分配方式可以确保训练过程不失败;分类器权重采用对正样本的分类错误率形成优化权重,突出对正样本的识别能力,提高检测概率;并且通过对加入分类器集的分类器的限制,使检测概率单调增加.该算法在较低虚警概率下,达到高检测概率.计算机仿真结果验证了算法的正确性.  相似文献   

14.
大规模的训练集中通常含有许多相似样本和大量对分类器模型构造"无用"的冗余信息,利用全部样本进行训练不但会增加训练时间,还可能因为出现"过拟合"现象而导致泛化能力下降。针对这一问题,本文从最具代表性样本与最近边界样本两个角度综合考虑,提出一种基于改进加权压缩近邻与最近边界规则SVM训练样本约减选择算法。该算法考虑到有价值训练样本对SVM分类器性能的重要影响,引进减法聚类利用改进的加权压缩近邻方法选择最具代表性的样本进行训练,在此基础上利用最近边界规则在随机小样本池中选择边界样本提高分类精度。在UCI和KDDCup1999数据集上的实验结果表明,本文的算法能够有效地去除大训练集中的冗余信息,以较少的样本获得更好的分类性能。  相似文献   

15.
针对采空区煤炭自然发火的预测问题,从温度、标志气体浓度以及钻孔参数3个方面选取了8个相关因素,利用Logistic回归分析从中提取出5个相对重要的因素作为预测模型的输入,运用极限学习机算法进行预测,并采用粒子群算法对极限学习机的输入权值及隐含层阈值作优化选取,以提高其泛化能力及预测精度,以此建立了PSO-ELM自然发火预测模型.选用28组训练样本和12组检验样本进行模型的预测实验,结果表明,基于Logistic回归分析筛选指标后的PSO-ELM模型有较高的预测精度,是预测采空区自然发火的一个有效方法.  相似文献   

16.
为降低无线传感器网络中核学习机训练时的数据通信代价和节点计算代价,研究了基于筛选机制的L1正则化核学习机分布式训练方法。提出了一种节点局部训练样本筛选机制,各节点利用筛选出的训练样本,在节点模型对本地训练样本的预测值与邻居节点间局部最优模型对本地训练样本预测值相一致的约束下,利用增广拉格朗日乘子法求解L1正则化核学习机分布式优化问题,利用交替方向乘子法求解节点本地的L1正则化核学习机的稀疏模型;仅依靠相邻节点间传输稀疏模型的协作方式,进一步优化节点局部模型,直至各节点模型收敛。基于此方法,提出了基于筛选机制的L1正则化核最小平方误差学习机的分布式训练算法。仿真实验验证了该算法在模型预测正确率、模型稀疏率、数据传输量和参与模型训练样本量上的有效性和优势。  相似文献   

17.
基于极限学习机(ELM)和粒子群优化(PSO)算法,建立一个新型排水管道结构性状况评价模型。采用PSO算法优化ELM中的输入权值矩阵和隐含层偏置,改善网络参数随机生成带来的分类精度偏低的问题。以上海市洋山保税港区排水管网为例,对分类器模型进行训练测试,并与ELM分类结果进行对比分析。结果表明,PSO-ELM算法以较少的隐含层神经元节点获得更高的分类精度,参数优化提高了模型拟合能力,对于城市排水管道结构性状况分类、判断具有可行性和有效性。  相似文献   

18.
基于错分样本权重约束的AdaBoost算法改进   总被引:1,自引:0,他引:1  
提出一种AdaBoost算法中错分样本权重约束的方法,该方法对AdaBoost算法中多次错分样本数据的权重进行约束,当其超过一个阈值时,就限制这些样本权重的增加,使其在下一轮迭代中的权重比例不至于过大,以提高强学习算法的泛化能力及精度.仿真实验表明该方法在分类问题和回归问题上都得到了较好的结果.  相似文献   

19.
针对一类具有空间不均匀性的辨识和回归问题,提出了基于小波分析的极限学习机方法.从多分辨率分析的思想出发,构造一簇紧支撑正交小波作为隐层激活函数,并利用改进的误差最小化极限学习机训练输出层权重,避免了新加入高分辨率子网络后的重新训练.同时,由一维多分辨分析的张量积构造了二维多分辨小波极限学习机.进而通过脊波变换将小波学习机扩展到高维空间,对脊波函数的伸缩、方向和位置参数进行优化计算.对具有奇异性的函数仿真结果证明,与标准极限学习机相比,小波极限学习机由于其聚微性能在极短的训练时间内更好地逼近目标.一些实际基准回归问题上的测试验证了脊波极限学习机在其中大部分问题上达到更高的训练和泛化精度.  相似文献   

20.
针对BP算法存在的问题或缺点,提出从提高训练速度的方法、选择激活函教类型、初始权重的影响及设置、隐含层数和隐含层节点数的选择等方面进行改进。从而使BP算法得到优化。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号