共查询到18条相似文献,搜索用时 73 毫秒
1.
2.
共轭下降法的全局收敛性 总被引:22,自引:1,他引:21
共轭下降法最早由Fletcher提出,本文证明了一类非精确线搜索条件能保证共轭下的降法的收敛性,并且构造了反例表明,如果线搜索条件放松,则共轭下降法可能不收敛,此外,我们还得到了与Flecher-Reeves方法有关的一类方法的结论。 相似文献
3.
4.
白延琴 《应用数学与计算数学学报》1996,10(1):92-96
在这篇文章中,我们给出了一些新的共轭梯度算法的收敛性条件,这些条件推广了已有的条件,使的已有的共轭梯度算法的收敛性结果成为本文结果的特殊情况。 相似文献
5.
6.
7.
In this paper, a modified formula for βk^PRP is proposed for the conjugate gradient method of solving unconstrained optimization problems. The value of βk^PRP keeps nonnegative independent of the line search. Under mild conditions, the global convergence of modified PRP method with the strong Wolfe-Powell line search is established. Preliminary numerical results show that the modified method is efficient. 相似文献
8.
限制PR共轭梯度法及其全局收敛性 总被引:5,自引:0,他引:5
PR共轭梯度法是求解大型无约束优化问题的有效算法之一,但是算法的全局收敛性在理论上一直没有得到解决。本文将PR共轭梯度法中的参数β加以限制,提出了限制R共轭梯度法,证明了Armijo搜索下算法的全局收敛性、数值试验表明算法是很有效的。 相似文献
9.
1引言 考虑无约束优化问题其中f:Rn→R是一阶可微函数.求解(1)的非线性共轭梯度法具有如下形式:其中gk= f(xk),ak是通过某种线搜索获得的步长,纯量βk的选取使得方法(2)—(3)在f(x)是严格凸二次函数且采用精确线搜索时化为线性共轭梯度法[1].比较常见的βk的取法有Fletcher-Reeves(FR)公式[2]和Polak-Ribiere-Polyak(PRP)公式[3-4]等.它们分别为其中 取欧几里得范数.对于一般非线性函数,FR方法具有较好的理论收敛性[5-6],而… 相似文献
10.
无约束最优化的Polak—Ribiere和Hestenes—Stiefel共轭梯度法的全局收敛性 总被引:2,自引:0,他引:2
本文在很弱的条件下得到了无约束最优化的Polak-Ribiere和Hestenes-Stiefel共轭梯度法的全局收敛性的新结果,这里PR方法和HS方法中的参数β^PRk和β^HSk可以在某个负的区域内取值,这一负的区域与k有关,这些新的收敛性结果改进了文献中已有的结果。数值检验的结果表明了本文中新的PR方法和HS方法是相当有效的。 相似文献
11.
一种修正的HS共轭梯度法及全局收敛性 总被引:2,自引:0,他引:2
<正>1引言考虑无约束极小化问题:(?),(1)其中f(x)连续可微,其梯度函数用g(x)表示.共轭梯度法求解(1)的常用迭代格式为:x_(k+1)=x_k+α_kd_k,(2)(?)(3)其中g_k=▽f(x_k),α_k≥0是由某种线搜索得到的步长因子;d_k为搜索方向,β_k为标量,β_k的不同选择产生了不同的共轭梯度法.著名的β_k公式有: 相似文献
12.
共轭梯度法是求解无约束最优化问题的有效方法.本文在βkDY的基础上对βk引入参数,提出了一类新共轭梯度法,并证明其在强Wolfe线性搜索条件下具有充分下降性和全局收敛性. 相似文献
13.
改进HS共轭梯度算法及其全局收敛性 总被引:14,自引:0,他引:14
1.引 言 1952年 M.Hestenes和E.Stiefel提出了求解正定线性方程组的共轭梯度法[1].1964年R.Fletcher和C.Reeves将该方法推广到求解下列无约束优化问题: minf(x),x∈Rn,(1)其中f:Rn→R1为连续可微函数,记gk= f(xk),xk∈ Rn. 若点列{xk}由如下算法产生:其中 βk=[gTk(gk-gk-1)]/[dTk-1(gk-gk-1)].(Hestenes-Stiefel) (4)则称该算法为 Hestenes—Stiefel共轭梯度算… 相似文献
14.
In this paper we consider the global convergence of any conjugate gradient method of the form d1=-g1,dk+1=-gk+1+βkdk(k≥1)with any βk satisfying sume conditions,and with the strong wolfe line search conditions.Under the convex assumption on the objective function,we preve the descenf property and the global convergence of this method. 相似文献
15.
一种改进的共轭梯度法及全局收敛性 总被引:1,自引:0,他引:1
本文在DY共轭梯度法的基础上对解决无约束最优化问题提出一种改进的共轭梯度法.该方法在Wolfe线搜索下能够保证充分下降性,并在目标函数可微的条件下,证明了算法的全局收敛性.大量数值试验表明,该方法是很有效的. 相似文献
16.
17.
Yu-hong Dai 《计算数学(英文版)》2001,19(5):539-548
1. IntroductionConsider the unconstrained OPtbo8tion problem,min f(x), (1.1)where j is smooth and its gradient g is available. Conjugate gradieot methods are highly usefulfOr solving (1.1) especially if n is large. They are iterative methods of the formHere oh is a 8tepsbo obtained by a 1-dboensional line search and gk is a scalar. The chOiceof Ph is such tha (l.2)--(l.3) reduces to the linear cOnugate gradient method in the casewhen j is a strictly convex qUadratic and crk is the exact 1-… 相似文献