首页 | 本学科首页   官方微博 | 高级检索  
     检索      

无约束优化的超记忆梯度法及其全局收敛性
引用本文:汤京永,秦金华,董丽.无约束优化的超记忆梯度法及其全局收敛性[J].信阳师范学院学报(自然科学版),2008,21(1):12-14.
作者姓名:汤京永  秦金华  董丽
作者单位:信阳师范学院,数学与信息科学学院,河南,信阳,464000
摘    要:提出一类新的求解无约束优化问题的超记忆梯度法,并在较弱条件下证明了算法的全局收敛性.当目标函数为一致凸函数时,对其线性收敛速度进行了分析.

关 键 词:无约束优化  超记忆梯度法  Armijo线性搜索  全局收敛性  无约束优化问题  超记忆梯度法  全局收敛性  Global  Convergence  Unconstrained  Optimization  Gradient  Method  分析  线性收敛速度  一致凸函数  目标函数  算法  条件  求解
文章编号:1003-0972(2008)01-0012-03
收稿时间:2006-12-17
修稿时间:2007-09-20

Convergence of Supermemory Gradient Method for Unconstrained Optimization and its Global Convergence
TANG Jing-yong,QIN Jin-hua,DONG Li.Convergence of Supermemory Gradient Method for Unconstrained Optimization and its Global Convergence[J].Journal of Xinyang Teachers College(Natural Science Edition),2008,21(1):12-14.
Authors:TANG Jing-yong  QIN Jin-hua  DONG Li
Abstract:This paper presents a new class of supermemory gradient methods for unconstraind optimization problems and proves its global convergence under some mild conditions. The linear convergence rate is investigated when the objective function is uniformly convex.
Keywords:unconstrained optimization  supermemory gradient method  Armijo line search  globalconvergence
本文献已被 维普 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号