共查询到17条相似文献,搜索用时 421 毫秒
1.
2.
3.
4.
5.
本文我们讨论了一簇共轭梯度法,它可被看作是FR法和DY法的凸组合.我们提出了两种Armijo型线搜索,并在这两种线搜索下,讨论了共轭梯度法簇的全局收敛性. 相似文献
6.
一类新的非单调记忆梯度法及其全局收敛性 总被引:1,自引:0,他引:1
在非单调Armijo线搜索的基础上提出一种新的非单调线搜索,研究了一类在该线搜索下的记忆梯度法,在较弱条件下证明了其全局收敛性。与非单调Armijo线搜索相比,新的非单调线搜索在每次迭代时可以产生更大的步长,从而使目标函数值充分下降,降低算法的计算量。 相似文献
7.
提出了求解无约束优化问题的新型DL共轭梯度方法. 同已有方法不同之处在于,该方法构造了一种修正的Armijo线搜索规则,它不仅能给出当前迭代步步长, 而且还能同时确定计算下一步搜索方向时需要用到的共轭参数值. 在较弱的条件下, 建立了算法的全局收敛性理论. 数值试验表明,新型共轭梯度算法比同类方法具有更好的计算效率. 相似文献
8.
9.
孙清滢 《数学的实践与认识》2002,32(4):621-628
对无约束规划 ( P) :minx∈ Rnf ( x) ,其中 f ( x)是 Rn→ R1上的一阶连续可微函数 ,设计了一个超记忆梯度求解算法 ,并在去掉迭代点列 { xk}有界和广义 Armijo步长搜索下 ,讨论了算法的全局的收敛性 ,证明了算法具有较强的收敛性质 相似文献
10.
一类新的非单调信赖域算法 总被引:1,自引:0,他引:1
提出了一类带线性搜索的非单调信赖域算法.算法将非单调Armijo线性搜索技术与信赖域方法相结合,使算法不需重解子问题.而且由于采用了MBFGS校正公式,使矩阵Bk能较好地逼近目标函数的Hesse矩阵并保持正定传递.在较弱的条件下,证明了算法的全局收敛性.数值结果表明算法是有效的. 相似文献
11.
一个新的无约束优化超记忆梯度算法 总被引:3,自引:0,他引:3
本文提出一种新的无约束优化超记忆梯度算法,算法利用当前点的负梯度和前一点的负梯度的线性组合为搜索方向,以精确线性搜索和Armijo搜索确定步长.在很弱的条件下证明了算法具有全局收敛性和线性收敛速度.因算法中避免了存贮和计算与目标函数相关的矩阵,故适于求解大型无约束优化问题.数值实验表明算法比一般的共轭梯度算法有效. 相似文献
12.
改进HS共轭梯度算法及其全局收敛性 总被引:14,自引:0,他引:14
1.引 言 1952年 M.Hestenes和E.Stiefel提出了求解正定线性方程组的共轭梯度法[1].1964年R.Fletcher和C.Reeves将该方法推广到求解下列无约束优化问题: minf(x),x∈Rn,(1)其中f:Rn→R1为连续可微函数,记gk= f(xk),xk∈ Rn. 若点列{xk}由如下算法产生:其中 βk=[gTk(gk-gk-1)]/[dTk-1(gk-gk-1)].(Hestenes-Stiefel) (4)则称该算法为 Hestenes—Stiefel共轭梯度算… 相似文献
13.
对求解无约束规划的超记忆梯度算法中线搜索方向中的参数,给了一个假设条件,从而确定了它的一个新的取值范围,保证了搜索方向是目标函数的充分下降方向,由此提出了一类新的记忆梯度算法.在去掉迭代点列有界和Armijo步长搜索下,讨论了算法的全局收敛性,且给出了结合形如共轭梯度法FR,PR,HS的记忆梯度法的修正形式.数值实验表明,新算法比Armijo线搜索下的FR、PR、HS共轭梯度法和超记忆梯度法更稳定、更有效. 相似文献
14.
15.
通过引入基于最小改变的对角修正策略,结合三阶拟牛顿方程,提出了基于Armijo线搜索的对角三阶拟柯西法.在适当的假设下,算法保证了修正矩阵的非奇异性,并证明了算法的线性收敛性.数值试验表明该算法是有效的. 相似文献
16.
本文在几种常见的Armijo型线搜索基础上,提出了一种新的Armijo型线搜索条件,并证明了由Du等人提出的杂交共轭梯度法的全局收敛性。数值实验表明新方法对于给定的测试函数是有效的。 相似文献
17.
Yu-hong Dai 《计算数学(英文版)》2001,19(5):539-548
1. IntroductionConsider the unconstrained OPtbo8tion problem,min f(x), (1.1)where j is smooth and its gradient g is available. Conjugate gradieot methods are highly usefulfOr solving (1.1) especially if n is large. They are iterative methods of the formHere oh is a 8tepsbo obtained by a 1-dboensional line search and gk is a scalar. The chOiceof Ph is such tha (l.2)--(l.3) reduces to the linear cOnugate gradient method in the casewhen j is a strictly convex qUadratic and crk is the exact 1-… 相似文献