首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 62 毫秒
1.
本文结合FR算法和DY算法,给出了一类新的杂交共轭梯度算法,并结合Goldstein线搜索,在较弱的条件下证明了算法的收敛性.数值实验表明了新算法的有效性.  相似文献   

2.
共轭梯度法是求解大规模元约束优化同题的一种有效方法,本文提出一种新的共轭梯度法,证明了在推广的Wolfe线搜索条件下方法具有全局收敛性。最后对算法进行了数值试验,试验结果表明该算法具有良好的收敛性和有效性。  相似文献   

3.
共轭下降法的全局收敛性   总被引:21,自引:1,他引:21  
袁亚湘 《数学进展》1996,25(6):552-562
共轭下降法最早由Fletcher提出,本文证明了一类非精确线搜索条件能保证共轭下的降法的收敛性,并且构造了反例表明,如果线搜索条件放松,则共轭下降法可能不收敛,此外,我们还得到了与Flecher-Reeves方法有关的一类方法的结论。  相似文献   

4.
王开荣  吴伟霞 《经济数学》2007,24(4):431-436
共轭梯度法是求解无约束最优化问题的有效方法.本文在βkDY的基础上对βk引入参数,提出了一类新共轭梯度法,并证明其在强Wolfe线性搜索条件下具有充分下降性和全局收敛性.  相似文献   

5.
改进的共轭梯度法及其收敛性   总被引:1,自引:0,他引:1  
本文对无约束最优化问题提出一类改进的共轭梯度法。该算法采用一类非精确线搜索,扩大了迭代参数的选取范围,并在目标函数连续可微的条件下,证明了算法的全局收敛性。  相似文献   

6.
一类共轭梯度法的全局收敛性结果   总被引:3,自引:0,他引:3  
本文证明了在Grippo-Lucidi线搜索下当βk取βk=σ1βPRPk+σ2βnewk,其中σ1≥0,σ2≥0,σ1+σ2>0,βnewk=gTk(gk-gk-1)/-dTk-1gk-1时一类共轭梯度法的全局收敛性,并给出了此类方法良好的数值效果.  相似文献   

7.
在这篇文章中,我们给出了一些新的共轭梯度算法的收敛性条件,这些条件推广了已有的条件,使的已有的共轭梯度算法的收敛性结果成为本文结果的特殊情况。  相似文献   

8.
一类新的非单调记忆梯度法及其全局收敛性   总被引:1,自引:0,他引:1  
在非单调Armijo线搜索的基础上提出一种新的非单调线搜索,研究了一类在该线搜索下的记忆梯度法,在较弱条件下证明了其全局收敛性。与非单调Armijo线搜索相比,新的非单调线搜索在每次迭代时可以产生更大的步长,从而使目标函数值充分下降,降低算法的计算量。  相似文献   

9.
在Goldstein搜索下一类共轭梯度法的全局收敛性   总被引:3,自引:0,他引:3  
徐泽水 《数学杂志》2000,20(1):13-16
本文证明了文「1」提出的一类共轭梯度法在Goldstein非精确线性搜索下具有全局收敛性。  相似文献   

10.
共轭下降法的全局收敛性   总被引:3,自引:0,他引:3  
本文提出了一种Armijo型的线搜索,并在这种线搜索下讨论了共轭下降法的全局收敛性,且可得方法在每次迭代均产生一个下降搜索方向.  相似文献   

11.
一族新的共轭梯度法的全局收敛性   总被引:1,自引:0,他引:1  
共轭梯度法是求解无约束优化问题的一种重要的方法,尤其适用于大规模优化问题的求解。本文提出一族新的共轭梯度法,证明了其在推广的Wolfe非精确线搜索条件下具有全局收敛性。最后对算法进行了数值试验,试验结果验证了该算法的有效性。  相似文献   

12.
In this paper, a new steplength formula is proposed for unconstrained optimization,which can determine the step-size only by one step and avoids the line search step. Global convergence of the five well-known conjugate gradient methods with this formula is analyzed,and the corresponding results are as follows:(1) The DY method globally converges for a strongly convex LC~1 objective function;(2) The CD method, the FR method, the PRP method and the LS method globally converge for a general, not necessarily convex, LC~1 objective function.  相似文献   

13.
In this paper, we introduce a class of nonmonotone conjugate gradient methods, which include the well-known Polak–Ribière method and Hestenes–Stiefel method as special cases. This class of nonmonotone conjugate gradient methods is proved to be globally convergent when it is applied to solve unconstrained optimization problems with convex objective functions. Numerical experiments show that the nonmonotone Polak–Ribière method and Hestenes–Stiefel method in this nonmonotone conjugate gradient class are competitive vis-à-vis their monotone counterparts.  相似文献   

14.
“一类新共轭下降算法的全局收敛性”一文注   总被引:2,自引:0,他引:2  
本文首先指出文献 [1 ]给出的一类新共轭下降算法全局收敛条件是不恰当的 ,并给予了更正 ;然后将所得结果作了进一步的推广 .  相似文献   

15.
一种修正的谱CD共轭梯度算法的全局收敛性   总被引:2,自引:0,他引:2  
In this paper,we present a new nonlinear modified spectral CD conjugate gradient method for solving large scale unconstrained optimization problems.The direction generated by the method is a descent direction for the objective function,and this property depends neither on the line search rule,nor on the convexity of the objective function.Moreover,the modified method reduces to the standard CD method if line search is exact.Under some mild conditions,we prove that the modified method with line search is globally convergent even if the objective function is nonconvex.Preliminary numerical results show that the proposed method is very promising.  相似文献   

16.
A new conjugate gradient method is proposed in this paper. For any (inexact) line search, our scheme satifies the sufficient descent property. The method is proved to be globally convergent if the restricted Wolfe-Powell line search is used. Preliminary numerical result shows that it is efficient.  相似文献   

17.
1引言 考虑无约束优化问题其中f:Rn→R是一阶可微函数.求解(1)的非线性共轭梯度法具有如下形式:其中gk= f(xk),ak是通过某种线搜索获得的步长,纯量βk的选取使得方法(2)—(3)在f(x)是严格凸二次函数且采用精确线搜索时化为线性共轭梯度法[1].比较常见的βk的取法有Fletcher-Reeves(FR)公式[2]和Polak-Ribiere-Polyak(PRP)公式[3-4]等.它们分别为其中   取欧几里得范数.对于一般非线性函数,FR方法具有较好的理论收敛性[5-6],而…  相似文献   

18.
In this paper, the non-quasi-Newton's family with inexact line search applied to unconstrained optimization problems is studied. A new update formula for non-quasi-Newton's family is proposed. It is proved that the constituted algorithm with either Wolfe-type or Armijotype line search converges globally and Q-superlinearly if the function to be minimized has Lipschitz continuous gradient.  相似文献   

19.
Memory gradient methods are used for unconstrained optimization, especially large scale problems. The first idea of memory gradient methods was proposed by Miele and Cantrell (1969) and Cragg and Levy (1969). In this paper, we present a new memory gradient method which generates a descent search direction for the objective function at every iteration. We show that our method converges globally to the solution if the Wolfe conditions are satisfied within the framework of the line search strategy. Our numerical results show that the proposed method is efficient for given standard test problems if we choose a good parameter included in the method.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号