首页 | 本学科首页   官方微博 | 高级检索  
     检索      

结合Armijo步长搜索的一类新的记忆梯度算法及其收敛特征
引用本文:朱帅,王希云,吴世跃.结合Armijo步长搜索的一类新的记忆梯度算法及其收敛特征[J].数学的实践与认识,2012,42(20).
作者姓名:朱帅  王希云  吴世跃
作者单位:1. 山西大同大学工学院,山西大同,037003
2. 太原科技大学应用科学学院,山西太原,030024
3. 太原理工大学矿业工程学院,山西太原,030024
摘    要:对求解无约束规划的超记忆梯度算法中线搜索方向中的参数,给了一个假设条件,从而确定了它的一个新的取值范围,保证了搜索方向是目标函数的充分下降方向,由此提出了一类新的记忆梯度算法.在去掉迭代点列有界和Armijo步长搜索下,讨论了算法的全局收敛性,且给出了结合形如共轭梯度法FR,PR,HS的记忆梯度法的修正形式.数值实验表明,新算法比Armijo线搜索下的FR、PR、HS共轭梯度法和超记忆梯度法更稳定、更有效.

关 键 词:无约束优化  记忆梯度法  Armijo线搜索  全局收敛性

Global Convergence Results for a Memory Gradient Method with Armijo Step Size Rule
ZHU Shuai , WANG Xi-yun , WU Shi-yue.Global Convergence Results for a Memory Gradient Method with Armijo Step Size Rule[J].Mathematics in Practice and Theory,2012,42(20).
Authors:ZHU Shuai  WANG Xi-yun  WU Shi-yue
Abstract:In this paper,an assumption condition is given for the parameter in the line search direction of super-memory gradient optimization algorithms.Based on the condition, we get a new range to ensure that the line search direction is sufficient descent,and present a new memory gradient method.The convergence property of the new memory gradient method with generalized Armijo step size rule is discussed without assuming that the sequence of iterates is bounded.Combining FR,PR,HS methods with memory gradient algorithm,FR,PR,HS methods are modified.Numerical result show that the new algorithm is efficient by comparing with FR,PR,HS conjugate gradient methods with Armijo step size rule,and the super-memory gradient method.
Keywords:unconstrained optimization  memory gradient method  Armijo line search  global convergence
本文献已被 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号