首页 | 本学科首页   官方微博 | 高级检索  
     检索      

一种新的记忆梯度法及其收敛性
引用本文:张祖华,时贞军,王长钰.一种新的记忆梯度法及其收敛性[J].经济数学,2006,23(4):421-425.
作者姓名:张祖华  时贞军  王长钰
作者单位:曲阜师范大学运筹与管理学院,山东日照,276826
摘    要:本文提出一种新的无约束优化记忆梯度算法,算法在每步迭代时利用了前面迭代点的信息,增加了参数选择的自由度,适于求解大规模无约束优化问题.分析了算法的全局收敛性.数值试验表明算法是有效的.

关 键 词:无约束优化  记忆梯度法  线性搜索  全局收敛性
修稿时间:2006年6月16日

CONVERGENCE OF NEW SUPERMEMORY GRADIENT METHOD
Zhang Zu-hua,Shi Zhen-jun,Wang Chang-yu.CONVERGENCE OF NEW SUPERMEMORY GRADIENT METHOD[J].Mathematics in Economics,2006,23(4):421-425.
Authors:Zhang Zu-hua  Shi Zhen-jun  Wang Chang-yu
Abstract:In this paper we present a new memory gradient method for solving unconstrained optimization problems.It uses the previous iterative information to generate a new iterate at each iteration and adds the freedom of some parameters.Therefore it is suitable to solve large scale optimization problems.We analyze the global convergence under some mild conditions.Numerical result shows it is valid.
Keywords:Unconstrained optimization  memory gradient method  linear search  global convergence  
本文献已被 CNKI 万方数据 等数据库收录!
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号