首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   368篇
  免费   4篇
  国内免费   9篇
系统科学   9篇
丛书文集   10篇
教育与普及   10篇
理论与方法论   9篇
现状及发展   4篇
综合类   339篇
  2024年   1篇
  2023年   2篇
  2022年   3篇
  2021年   8篇
  2020年   4篇
  2019年   1篇
  2017年   2篇
  2016年   6篇
  2015年   15篇
  2014年   29篇
  2013年   16篇
  2012年   37篇
  2011年   37篇
  2010年   17篇
  2009年   26篇
  2008年   27篇
  2007年   30篇
  2006年   20篇
  2005年   15篇
  2004年   17篇
  2003年   18篇
  2002年   12篇
  2001年   8篇
  2000年   5篇
  1998年   5篇
  1997年   2篇
  1996年   2篇
  1995年   1篇
  1994年   1篇
  1993年   1篇
  1992年   1篇
  1991年   1篇
  1990年   3篇
  1989年   4篇
  1988年   1篇
  1987年   2篇
  1985年   1篇
排序方式: 共有381条查询结果,搜索用时 31 毫秒
381.
Adam算法是目前最常用的优化算法之一,但其面临学习率震荡导致模型不收敛问题,其改进算法AMSGrad也存在梯度递减导致的二阶动量失效问题。针对上述问题,提出了基于自适应动量更新策略的Adams算法。首先,通过为一阶动量和二阶动量引入自适应更新参数,并在最后的参数更新期间采用较小的一阶动量更新参数,构建了一种自适应的动量更新策略。其次,基于该更新策略,提出了一种能够快速收敛的Adams算法。最后,通过理论分析证明了Adams算法的收敛性。基于文本分类和图像分类的对比实验表明,相比于Adam和AMSGrad算法,Adams收敛速度更快、训练结果更好,且具有优秀的泛化能力;消融实验证明了Adams算法自适应动量更新策略的有效性。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号