共查询到11条相似文献,搜索用时 62 毫秒
1.
基于泛函网络的多维函数逼近理论及学习算法 总被引:7,自引:1,他引:7
提出一种多维函数逼近的泛函网络逼近方法,设计了一类用于函数逼近的可分离泛函网络,给出了基于泛函网络的函数逼近学习算法。而泛函网络的参数通过解方程组得到,它们能逼近给定函数到预定的精度。仿真结果表明,这种逼近方法简单可行,具有较快的收敛速度和良好的逼近性能。 相似文献
2.
提出一种递归泛函网络模型,给出递归泛函网络稳定性的一种判据,即把稳定点转化为某种函数的不动点;给出一般递归泛函网络学习算法,该算法是借助于Lagrange乘数法,作辅助函数对泛函参数学习过程归结为求一组线性方程组的过程;指出基于递度下降学习算法应用于递归泛函网络仅是一种特殊情形。最后,通过算例分析表明,该算法十分有效,具有模型简单、计算精度高等特点。 相似文献
3.
模糊基函数网络学习算法及其应用 总被引:1,自引:0,他引:1
本文在文献[1]的基础上提出了模糊基函数网络(FBFN)改进的学习算法。改进的正交最小方差算法(MOLS)解决了原算法逼近多维函数的性能很差的问题,并且提高了该算法实际的逼近性能和收敛性。最后给出了FBFN应用于雷达数据关联的实验结果。 相似文献
4.
5.
本文提出了最大-乘积型模糊联想记忆网络的一种新的学习算法,并给出了严格的理论证明.在一定条件下,新算法能将多个模糊模式对可靠地编码到模糊联想记忆网络的连接权矩阵中,且已存储的模式对可被完整地回想出来,并举例验证了算法的有效性. 相似文献
6.
过程神经元网络常采用基于正交基展开的学习算法,以简化积分运算.分析对比了基于正交基展开和基于梯形公式两种不同积分方法,提出并证明了网络结构一定时,两种方法可以使网络达到相同的误差精度,并推论出积分运算方法不影响网络训练所能达到的误差精度.两种方法具有不同的适用情况,连续函数输入适合采用正交基展开法,在网络输入为离散等距采样点时,基于梯形公式的方法能够在不影响网络原始输入数据的前提下简化运算,避免了由原始数据构造拟合曲线或平滑插值,再进行正交基展开的过程. 相似文献
7.
本文给出前馈神经网络的一种连续型学习算法,对传统的BP算法作了改进。分析了该算法的收敛性。通过实例与传统BP算法进行比较,该算法可以明显提高网络的收敛速度,说明它是一种实用的学习算法。 相似文献
8.
一种新型δ函数神经元构成的神经网络及学习算法 总被引:4,自引:0,他引:4
本文提出一种新型δ函数神经元构成的三层前馈神经网络,其隐层中神经元采用δ变换函数而不是sigmoid函数。学习算法不再采用误差反向传播(BP)算法,而是通过选定隐层与输入层之间的自由权来确定隐层与输出层间的待求权的直接算法完成学习。这种学习算法运算速度快,不存在局部极小和收敛速度慢的问题,只要隐层δ函数神经元个数等于样本对数量就一定能完成学习,这是传统BP算法不能比拟的。计算机仿真实例表明该算法是十分有效的。 相似文献
9.
10.
在数据挖掘研究领域,分类任务广泛存在着数据分布不均衡问题,例如制造状态检测,医疗诊断,金融服务,等等.SMOTE是处理不均衡数据分类问题的常用技术,与Boosting算法相结合可进一步提升分类系统性能,但是这种集成学习容易导致基分类器多样性缺失.基于此,本文提出了一种基于高斯过程SMOTE过采样的Boosting集成学习算法(Gaussian-based smote in boosting,GSMOTEBoost).该算法在Boosting集成框架下构建不均衡学习模型,为了提高分类系统的鲁棒性,采用基于高斯过程SMOTE过采样技术来增加基分类器训练样本的多样性,从而提高基分类器之间的差异.为了验证算法的有效性,以常用的处理不均衡分类问题的算法作为对比方法,采用KEEL数据库里的20个标准数据集对算法进行测试,以G-mean,F-measure以及AUC作为算法的评价指标,利用统计检验手段对实验结果进行分析.实验结果表明,相对于其他算法,本文提出的GSMOTEBoost具有显著的优势. 相似文献
11.
基于过程神经网络(procedure neural network, PNN)建立了具有高精确度的多步预测模型。针对PNN训练过程复杂的特点,提出了一种基于正交基函数展开和矢量矩免疫算法(vector distance based immune algorithm, VD-IA)相结合的PNN训练方法。根据PNN在三角函数正交基展开形式下的数学模型,推导出适用于VD-IA的优化问题模型,采用一种自适应策略加快了VD IA的收敛速度。基于Mackey-Glass混沌序列检验了该方法的有效性,将该方法与BP训练方法、改进粒子群优化(improved particle swarm optimization, IPSO)算法进行了对比分析。仿真结果表明,基于VD-IA的PNN训练方法可以获得较优的结果,且获得泛化性能较好的PNN模型。 相似文献