首页 | 本学科首页   官方微博 | 高级检索  
     检索      

一类新的记忆梯度法及其收敛性
引用本文:汤京永,董丽.一类新的记忆梯度法及其收敛性[J].中山大学学报(自然科学版),2010,49(5).
作者姓名:汤京永  董丽
作者单位:1. 信阳师范学院数学与信息科学学院,河南,信阳,464000;上海交通大学数学系,上海,200240
2. 信阳师范学院数学与信息科学学院,河南,信阳,464000
基金项目:国家自然科学基金资助项目,山东省自然科学基金资助项目,信阳师范学院青年基金资助项目 
摘    要:提出一类新的求解无约束优化问题的记忆梯度法。算法在每步迭代中利用当前和前面迭代点的信息产生下降方向,采用精确线性搜索或Wolfe非精确线性搜索产生步长,在较弱条件下证明了算法具有全局收敛性和线性收敛速率。数值试验表明算法是有效的。

关 键 词:无约束优化  记忆梯度法  全局收敛性  线性收敛速率
收稿时间:2009-09-11;

A New Memory Gradient Method and Its Convergence
TANG Jingyong,DONG Li.A New Memory Gradient Method and Its Convergence[J].Acta Scientiarum Naturalium Universitatis Sunyatseni,2010,49(5).
Authors:TANG Jingyong  DONG Li
Institution:(1.〖JP2〗College of Mathematics and Information Science,Xinyang Normal University,Xinyang 464000,China;〖JP〗2. Department of Mathematics, Shanghai Jiaotong University, Shanghai 200240, China)
Abstract:A new memory gradient method for unconstrained optimization problems is presented. This method makes use of the current and previous iterative information to generate a decent direction and uses exact linear search or Wolfe inexact linear search to define the step size at each iteration. The global convergence and linear convergence rate are proved under some mild conditions. Numerical experiments show that the new method is efficient in practical computation.
Keywords:unconstrained optimization  memory gradient method  global convergence  linear convergence rate
本文献已被 CNKI 万方数据 等数据库收录!
点击此处可从《中山大学学报(自然科学版)》浏览原始摘要信息
点击此处可从《中山大学学报(自然科学版)》下载免费的PDF全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号