首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
共轭梯度法是求解大规模元约束优化同题的一种有效方法,本文提出一种新的共轭梯度法,证明了在推广的Wolfe线搜索条件下方法具有全局收敛性。最后对算法进行了数值试验,试验结果表明该算法具有良好的收敛性和有效性。  相似文献   

2.
一类共轭梯度法的全局收敛性结果   总被引:3,自引:0,他引:3  
本文证明了在Grippo-Lucidi线搜索下当βk取βk=σ1βPRPk+σ2βnewk,其中σ1≥0,σ2≥0,σ1+σ2>0,βnewk=gTk(gk-gk-1)/-dTk-1gk-1时一类共轭梯度法的全局收敛性,并给出了此类方法良好的数值效果.  相似文献   

3.
一族新共轭梯度法的全局收敛性   总被引:4,自引:0,他引:4  
杜学武  徐成贤 《数学研究》1999,32(3):277-280
提出求解无约束优化问题的一族新共轭梯度法,证明了它的一个子族在一种非精确线搜索下的下降性和全局收敛性  相似文献   

4.
连淑君  王长钰 《应用数学》2007,20(1):120-127
本文我们讨论了一簇共轭梯度法,它可被看作是FR法和DY法的凸组合.我们提出了两种Armijo型线搜索,并在这两种线搜索下,讨论了共轭梯度法簇的全局收敛性.  相似文献   

5.
本文对求解无约束优化问题提出一类三项混合共轭梯度算法,新算法将Hestenes- stiefel算法与Dai-Yuan方法相结合,并在不需给定下降条件的情况下,证明了算法在Wolfe线搜索原则下的收敛性,数值试验亦显示出这种混合共轭梯度算法较之HS和PRP的优势.  相似文献   

6.
用例子说明求解大规模无约束优化问题的一种有效算法———Beale Powell重开始算法不一定收敛 ;但经过适当修正 ,可以获得它在一定条件下的收敛性.  相似文献   

7.
一族新的共轭梯度法的全局收敛性   总被引:1,自引:0,他引:1  
共轭梯度法是求解无约束优化问题的一种重要的方法,尤其适用于大规模优化问题的求解。本文提出一族新的共轭梯度法,证明了其在推广的Wolfe非精确线搜索条件下具有全局收敛性。最后对算法进行了数值试验,试验结果验证了该算法的有效性。  相似文献   

8.
改进的共轭梯度法及其收敛性   总被引:1,自引:0,他引:1  
本文对无约束最优化问题提出一类改进的共轭梯度法。该算法采用一类非精确线搜索,扩大了迭代参数的选取范围,并在目标函数连续可微的条件下,证明了算法的全局收敛性。  相似文献   

9.
限制PR共轭梯度法及其全局收敛性   总被引:5,自引:0,他引:5  
时贞军 《数学进展》2002,31(1):47-55
PR共轭梯度法是求解大型无约束优化问题的有效算法之一,但是算法的全局收敛性在理论上一直没有得到解决。本文将PR共轭梯度法中的参数β加以限制,提出了限制R共轭梯度法,证明了Armijo搜索下算法的全局收敛性、数值试验表明算法是很有效的。  相似文献   

10.
Wolfe线搜索下一类混合共轭梯度法的全局收敛性   总被引:3,自引:0,他引:3  
本文给出了一个新的共轭梯度公式,新公式在精确线搜索下与DY公式等价,并给出了新公式的相关性质.结合新公式和DY公式提出了一个新的混合共轭梯度法,新算法在Wolfe线搜索下产生一个下降方向,并证明了算法的全局收敛性,并给出了数值例子.  相似文献   

11.
1. IntroductionConsider the unconstrained OPtbo8tion problem,min f(x), (1.1)where j is smooth and its gradient g is available. Conjugate gradieot methods are highly usefulfOr solving (1.1) especially if n is large. They are iterative methods of the formHere oh is a 8tepsbo obtained by a 1-dboensional line search and gk is a scalar. The chOiceof Ph is such tha (l.2)--(l.3) reduces to the linear cOnugate gradient method in the casewhen j is a strictly convex qUadratic and crk is the exact 1-…  相似文献   

12.
一种混合的HS-DY共轭梯度法   总被引:22,自引:3,他引:19  
戴志锋  陈兰平 《计算数学》2005,27(4):429-436
本文在HS方法和DY方法的基础上,综合两者的优势,提出了一种求解无约束优化问题的新的混合共轭梯度法.在Wolfe线搜索下,不需给定下降条件,证明了算法的全局收敛性.数值试验表明,新算法较之HS方法和PR方法更加有效.  相似文献   

13.
本文结合FR算法和DY算法,给出了一类新的杂交共轭梯度算法,并结合Goldstein线搜索,在较弱的条件下证明了算法的收敛性.数值实验表明了新算法的有效性.  相似文献   

14.
A NOTE ON THE NONLINEAR CONJUGATE GRADIENT METHOD   总被引:2,自引:0,他引:2  
The conjugate gradient method for unconstrained optimization problems varies with a scalar. In this note, a general condition concerning the scalar is given, which ensures the global convergence of the method in the case of strong Wolfe line searches. It is also discussed how to use the result to obtain the convergence of the famous Fletcher-Reeves, and Polak-Ribiere-Polyak conjugate gradient methods. That the condition cannot be relaxed in some sense is mentioned.  相似文献   

15.
王开荣  吴伟霞 《经济数学》2007,24(4):431-436
共轭梯度法是求解无约束最优化问题的有效方法.本文在βkDY的基础上对βk引入参数,提出了一类新共轭梯度法,并证明其在强Wolfe线性搜索条件下具有充分下降性和全局收敛性.  相似文献   

16.
In this paper we consider the global convergence of any conjugate gradient method of the form d1=-g1,dk+1=-gk+1+βkdk(k≥1)with any βk satisfying sume conditions,and with the strong wolfe line search conditions.Under the convex assumption on the objective function,we preve the descenf property and the global convergence of this method.  相似文献   

17.
Wolfe线搜索下一个全局收敛的混合共轭梯度法   总被引:2,自引:0,他引:2  
江羡珍  韩麟  简金宝 《计算数学》2012,34(1):103-112
对无约束优化问题, 本文给出了一个新的混合共轭梯度法公式. 在标准Wolfe非精确线搜索下,证明了由新公式所产生的算法具有下降性和全局收敛性, 并对算法进行了数值试验, 其结果表明该算法是有效的.  相似文献   

18.
A new adaptive subspace minimization three-term conjugate gradient algorithm with nonmonotone line search is introduced and analyzed in this paper.The search directions are computed by minimizing a quadratic approximation of the objective function on special subspaces,and we also proposed an adaptive rule for choosing different searching directions at each iteration.We obtain a significant conclusion that the each choice of the search directions satisfies the sufficient descent condition.With the used nonmonotone line search,we prove that the new algorithm is globally convergent for general nonlinear functions under some mild assumptions.Numerical experiments show that the proposed algorithm is promising for the given test problem set.  相似文献   

19.
一种改进的共轭梯度法及全局收敛性   总被引:1,自引:0,他引:1  
本文在DY共轭梯度法的基础上对解决无约束最优化问题提出一种改进的共轭梯度法.该方法在Wolfe线搜索下能够保证充分下降性,并在目标函数可微的条件下,证明了算法的全局收敛性.大量数值试验表明,该方法是很有效的.  相似文献   

20.
本文提出一种新的无约束优化记忆梯度算法,算法在每步迭代时利用了前面迭代点的信息,增加了参数选择的自由度,适于求解大规模无约束优化问题.分析了算法的全局收敛性.数值试验表明算法是有效的.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号