共查询到19条相似文献,搜索用时 62 毫秒
1.
2.
一类新的非单调记忆梯度法及其全局收敛性 总被引:1,自引:0,他引:1
在非单调Armijo线搜索的基础上提出一种新的非单调线搜索,研究了一类在该线搜索下的记忆梯度法,在较弱条件下证明了其全局收敛性。与非单调Armijo线搜索相比,新的非单调线搜索在每次迭代时可以产生更大的步长,从而使目标函数值充分下降,降低算法的计算量。 相似文献
3.
利用广义投影矩阵,对求解无约束规划的三项记忆梯度算法中的参数给一条件,确定它们的取值范围,以保证得到目标函数的三项记忆梯度广义投影下降方向,建立了求解非线性等式和不等式约束优化问题的三项记忆梯度广义投影算法,并证明了算法的收敛性.同时给出了结合FR,PR,HS共轭梯度参数的三项记忆梯度广义投影算法,从而将经典的共轭梯度算法推广用于求解约束规划问题.数值例子表明算法是有效的. 相似文献
4.
考虑约束最优化问题:minx∈Ωf(x)其中:f:R^n→R是连续可微函数,Ω是一闭凸集。本文研究了解决此问题的梯度投影方法,在步长的选取时采用了一种新的策略,在较弱的条件下,证明了梯度投影响方法的全局收敛性。 相似文献
5.
解带线性或非线性约束最优化问题的三项记忆梯度Rosen投影算法 总被引:2,自引:0,他引:2
利用Rosen投影矩阵,建立求解带线性或非线性不等式约束优化问题的三项记忆梯度Rosen投影下降算法,并证明了算法的收敛性.同时给出了结合FR,PR,HS共轭梯度参数的三项记忆梯度Rosen投影算法,从而将经典的共轭梯度法推广用于求解约束规划问题.数值例子表明算法是有效的。 相似文献
6.
Abstract. The global convergence of the general three-term conjugate gradient methods withthe relaxed strong Wolfe line-search is proved. 相似文献
7.
8.
本文提出一种新的无约束优化记忆梯度算法,在Armijo搜索下,该算法在每步迭代时利用了前面迭代点的信息,增加了参数选择的自由度,适于求解大规模无约束优化问题。分析了算法的全局收敛性。 相似文献
9.
10.
一个新的共轭投影梯度算法及其超线性收敛性 总被引:7,自引:0,他引:7
利用共轭投影梯度技巧,结合SQP算法的思想,建立了一个具有显示搜索方向的新算法,在适当的条件下,证明算法是全局收敛和强收敛的,且具有超线性收敛性,最后数值实验表明算法是有效的。 相似文献
11.
对求解无约束规划的超记忆梯度算法中线搜索方向中的参数,给了一个假设条件,从而确定了它的一个新的取值范围,保证了搜索方向是目标函数的充分下降方向,由此提出了一类新的记忆梯度算法.在去掉迭代点列有界和Armijo步长搜索下,讨论了算法的全局收敛性,且给出了结合形如共轭梯度法FR,PR,HS的记忆梯度法的修正形式.数值实验表明,新算法比Armijo线搜索下的FR、PR、HS共轭梯度法和超记忆梯度法更稳定、更有效. 相似文献
12.
由William W.Hager和张洪超提出的一种新的共轭梯度法(简称HZ方法),已被证明是一种有效的方法.本文证明了HZ共轭梯度法在Armijo型线性搜索下的全局收敛性.数值实验显示,在Armijo型线性搜索下的HZ共轭梯度法比在Wolfe线性搜索下更有效. 相似文献
13.
14.
This paper develops convergence theory of the gradient projection method by Calamai and Moré (Math. Programming, vol. 39, 93–116, 1987) which, for minimizing a continuously differentiable optimization problem min{f(x) : x } where is a nonempty closed convex set, generates a sequence xk+1 = P(xk – k f(xk)) where the stepsize k > 0 is chosen suitably. It is shown that, when f(x) is a pseudo-convex (quasi-convex) function, this method has strong convergence results: either xk x* and x* is a minimizer (stationary point); or xk arg min{f(x) : x } = , and f(xk) inf{f(x) : x }. 相似文献
15.
Wolfe搜索下记忆梯度法的收敛性 总被引:7,自引:0,他引:7
本文研究无约束优化问题的记忆梯度算法,分析了Wolfe搜索下该算法的全局收敛性和线性收敛速度。初步数值试验结果表明了算法的有效性。 相似文献
16.
A new conjugate gradient method is proposed in this paper. For any (inexact) line search, our scheme satifies the sufficient descent property. The method is proved to be globally convergent if the restricted Wolfe-Powell line search is used. Preliminary numerical result shows that it is efficient. 相似文献
17.
一个修正HS共轭梯度法及其收敛性 总被引:2,自引:0,他引:2
It is well-known that the direction generated by Hestenes-Stiefel (HS) conjugate gradient method may not be a descent direction for the objective function. In this paper, we take a little modification to the HS method, then the generated direction always satisfies the sufficient descent condition. An advantage of the modified Hestenes-Stiefel (MHS) method is that the scalar βkH Sffikeeps nonnegative under the weak Wolfe-Powell line search. The global convergence result of the MHS method is established under some mild conditions. Preliminary numerical results show that the MHS method is a little more efficient than PRP and HS methods. 相似文献
18.
Memory gradient methods are used for unconstrained optimization, especially large scale problems. The first idea of memory
gradient methods was proposed by Miele and Cantrell (1969) and Cragg and Levy (1969). In this paper, we present a new memory
gradient method which generates a descent search direction for the objective function at every iteration. We show that our
method converges globally to the solution if the Wolfe conditions are satisfied within the framework of the line search strategy.
Our numerical results show that the proposed method is efficient for given standard test problems if we choose a good parameter
included in the method. 相似文献
19.
本文提出了一类与HS方法相关的新的共轭梯度法.在强Wolfe线搜索的条件下,该方法能够保证搜索方向的充分下降性,并且在不需要假设目标函数为凸的情况下,证明了该方法的全局收敛性.同时,给出了这类新共轭梯度法的一种特殊形式,通过调整参数ρ,验证了它对给定测试函数的有效性. 相似文献