共查询到17条相似文献,搜索用时 46 毫秒
1.
2.
3.
4.
一类新的非单调记忆梯度法及其全局收敛性 总被引:1,自引:0,他引:1
在非单调Armijo线搜索的基础上提出一种新的非单调线搜索,研究了一类在该线搜索下的记忆梯度法,在较弱条件下证明了其全局收敛性。与非单调Armijo线搜索相比,新的非单调线搜索在每次迭代时可以产生更大的步长,从而使目标函数值充分下降,降低算法的计算量。 相似文献
5.
6.
极大熵方法与非单调曲线搜索可行方向法 总被引:7,自引:0,他引:7
The convergence of maximum entropy methods is obtained on Kuhn-Tucker/Fritz John points. Then according to the nature of maximum entropy methods, we study the structure and convergent properties of feasible directions methods with nonmonotone curvilinear search rules from the unified point. On this basis, we discuss the numerically computing technique which combines nonmonotone curvilinear search methods and maximum entropy methods, and the numerically computing results for some optimization problems are obtained. The results show that our algorithm is efficient. 相似文献
7.
在二阶拟牛顿方程的基础上,结合Zhang H.C.提出的非单调线搜索构造了一种求解大规模无约束优化问题的对角二阶拟牛顿算法.算法在每次迭代中利用对角矩阵逼近Hessian矩阵的逆,使计算搜索方向的存储量和工作量明显减少,为大型无约束优化问题的求解提供了新的思路.在通常的假设条件下,证明了算法的全局收敛性和超线性收敛性.数值实验表明算法是有效可行的. 相似文献
8.
变步长非单调模式搜索法 总被引:6,自引:0,他引:6
A varied steplength nonmonotone pattern search method is proposed in this paper. The varied steplength search strategy is designed in this method such that the pattern direction is more approximated to efficient descent direction. The interpolation and nonmonotone technique are used for improving local search and global convergence. The theoretical and numerical results show that this method is an efficient direct search method. 相似文献
9.
本文中的算法利用了差商和强迫矩阵正定的Cholesky 分解算法,设f(x)和~2f(x)分别为f(x)的梯度和Hessian矩阵,分别简记为f和~2f.用△f(x,s)和△~2f(x,s)分别表示f和~2f的近似,分别简记为△f和△~2f.当x=x~k,s=s_k时,它们分别简记为f~k、~2f~k、△f~k和△~2f~k.下面给出△f、△~f和强迫矩阵正定的Cholesky分解算法. 相似文献
10.
提出一类求解无约束最优化问题的混合共轭梯度算法,新算法有机地结合了DY算法和HS算法的优点,并采用非单调线搜索技术在较弱条件下证明了算法的全局收敛性.数值实验表明新算法具有良好的计算效能. 相似文献
11.
12.
Wolfe搜索下记忆梯度法的收敛性 总被引:7,自引:0,他引:7
本文研究无约束优化问题的记忆梯度算法,分析了Wolfe搜索下该算法的全局收敛性和线性收敛速度。初步数值试验结果表明了算法的有效性。 相似文献
13.
14.
In this paper, a new steplength formula is proposed for unconstrained optimization,which can determine the step-size only by one step and avoids the line search step. Global convergence of the five well-known conjugate gradient methods with this formula is analyzed,and the corresponding results are as follows:(1) The DY method globally converges for a strongly convex LC~1 objective function;(2) The CD method, the FR method, the PRP method and the LS method globally converge for a general, not necessarily convex, LC~1 objective function. 相似文献
15.
由William W.Hager和张洪超提出的一种新的共轭梯度法(简称HZ方法),已被证明是一种有效的方法.本文证明了HZ共轭梯度法在Armijo型线性搜索下的全局收敛性.数值实验显示,在Armijo型线性搜索下的HZ共轭梯度法比在Wolfe线性搜索下更有效. 相似文献
16.
17.
本文提出一种新的无约束优化记忆梯度算法,在Armijo搜索下,该算法在每步迭代时利用了前面迭代点的信息,增加了参数选择的自由度,适于求解大规模无约束优化问题。分析了算法的全局收敛性。 相似文献