首页 | 本学科首页   官方微博 | 高级检索  
     

一类无需线性搜索的记忆梯度法
引用本文:汤京永,董丽. 一类无需线性搜索的记忆梯度法[J]. 应用数学, 2011, 24(2)
作者姓名:汤京永  董丽
作者单位:1. 信阳师范学院数学与信息科学学院,河南信阳464000;上海交通大学数学系,上海200240
2. 信阳师范学院数学与信息科学学院,河南信阳,464000
基金项目:国家自然科学基金资助项目(10571109); 信阳师范学院青年基金(200946)
摘    要:提出一类新的求解无约束优化问题的记忆梯度法,证明了算法的全局收敛性.当目标函数为一致凸函数时,对其线性收敛速率进行了分析.新算法在迭代过程中无需对步长进行线性搜索,仅需对算法中的一些参数进行预测估计,从而减少了目标函数及梯度的迭代次数,降低了算法的计算量和存储量.数值试验表明算法是有效的.

关 键 词:无约束优化  记忆梯度法  全局收敛性  线性收敛速率

A New Memory Gradient Method Without Line Search
TANG J ingyong , DONG Li. A New Memory Gradient Method Without Line Search[J]. Mathematica Applicata, 2011, 24(2)
Authors:TANG J ingyong    DONG Li
Affiliation:TANG Jingyong1,2,DONG Li1 (1.College of Mathematics and Information Science,Xinyang Normal University,Xinyang 464000,China,2.Department of Mathematics,Shanghai Jiaotong University,Shanghai 200240,China)
Abstract:In this paper,we present a new memory gradient method for unconstrained optimization and prove its global convergence.The linear convergence rate is investigated when the objective function is uniformly convex.The algorithm is not required to determine the step size by using some search rules.It only needs to estimate some parameters at each iteration of the algorithm.By this way,the algorithm reduces the number of iterations,function evaluations and gradient evaluations so as to reduce the computation and ...
Keywords:Unconstrained optimization  Memory gradient method  Global convergence  Linear convergence rate  
本文献已被 CNKI 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号