首页 | 本学科首页   官方微博 | 高级检索  
     检索      

一种新的快速收敛的反向传播算法
引用本文:武妍,王守觉.一种新的快速收敛的反向传播算法[J].同济大学学报(自然科学版),2004,32(8):1092-1095.
作者姓名:武妍  王守觉
作者单位:1. 同济大学,计算机科学与工程系,上海,200092;同济大学,半导体与信息技术研究所,上海,200092
2. 同济大学,半导体与信息技术研究所,上海,200092;中国科学院半导体研究所神经网络实验室,北京,100083
基金项目:国家自然科学基金资助项目 (60 13 5 0 10 )
摘    要:提出了一种新的快速的误差反向传播算法 .这种方法从神经网络的权值调节公式入手 ,通过避免过早饱和、加大权值调节的幅度等手段来加快收敛 .并通过对两个奇偶问题、一个函数逼近问题的仿真 ,验证了所提出的算法的有效性 .结果表明 ,所提出的算法在收敛速度等方面大大优于通常的BP(反向传播 )算法、带动量项的BP算法以及其他的一些改进的算法 .

关 键 词:神经网络  反向传播  学习算法
文章编号:0253-374X(2004)08-1092-04

Novel Quick Convergence Back-propagation Algorithm
WU Yan ,WANG Shou-Jue.Novel Quick Convergence Back-propagation Algorithm[J].Journal of Tongji University(Natural Science),2004,32(8):1092-1095.
Authors:WU Yan    WANG Shou-Jue
Institution:WU Yan 1,2,WANG Shou-Jue 2,3
Abstract:In this paper,in order to effectively speed up the weight convergence speed of neural network,a new back-propagation algorithm is proposed. Starting with the weight adjusting equation,the proposed algorithm speeds up the convergence speed by avoiding early saturation and by amplifying the range of weight adjusting.The efficacy of the proposed algorithm is verified by means of simulations on two parity problems,and a function approximation problem.The results show that the proposed algorithm improves considerably on the convergence speed of the general back-propagation algorithms,including when using momentum,and other improved algorithms.
Keywords:neural network  back-propagation  learning algorithm
本文献已被 CNKI 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号