首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   0篇
综合类   1篇
  2018年   1篇
排序方式: 共有1条查询结果,搜索用时 0 毫秒
1
1.
文章针对在训练目前卷积神经网络中较为主流的深度神经网络VGG网络模型时调参艰难、收敛较慢的问题,引入批归一化(batch normalization,BN)进行改进。批归一化能提高网络训练的初始学习率上限,同时加快模型收敛速度。相关实验结果表明,在端对端训练或者微调神经网络过程中应用批归一化,能较好地达到优化目的,同时指出在VGG网络中所有激活层前进行批归一化能得到最好的效果。另外VGG网络的优化方法会影响到批归一化,使用改进的基于动量的随机梯度下降能使网络训练时的波动更小。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号