首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 312 毫秒
1.
结合磨光法和最优化理论提出一种随机优化磨光算法(SOS算法),算法通过原始值的参数化和调整幅度的修改,利用优化理论优化控制点.实例表明,随机优化磨光算法比样条修正磨光法和灰色马尔可夫链预测模型精度要高得多;而且所得到的误差变化更稳定.  相似文献   

2.
通过对磨光法及马尔可夫过程的研究,马氏过程作为区间预测的一种方法,在很大程度上约束了它预测的科学性,另外,磨光法本身也是一种迭代的方法,对于拟合的精度还是难于控制,通过拟马尔可夫矩阵与磨光法相结合及优化工具,得到拟马尔可夫过程的磨光优化算法,实例表明:拟马尔可夫过程的磨光优化算法使修正磨光后的值逼近原数据值的程度较其它算法更好,而且,拟马尔可夫矩阵反应了从一种状态到另一种状态的转移程度,并且这种算法具有更好的推广和应用。  相似文献   

3.
很多预测模型都是利用原始数据直接地代入模型中优化参数,这样仍然很难避免整体数据之间的相互约束,使某些局部误差还是很大.为了克服这些缺点,特提出一种基于伸缩变换不一致性的灰色磨光优化模型,模型通过引入描述局部性质的磨光因子、可逆变换和优化方法,很好地保证整体的拟合精度.通过实例比较,模型比其它几种模型的拟合精度更高.  相似文献   

4.
提出了一种基于小波变换和改进萤火虫优化极限学习机的短期负荷预测方法.通过小波分解和重构,对原始负荷序列进行降噪;在模型训练阶段利用改进的萤火虫算法优化极限学习机参数,获得各序列的最优模型;针对各子序列分别预测叠加得到最终预测值.通过在两种时间尺度的数据序列上进行数值计算,与传统的ARMA、BP神经网络、支持向量机及LSSVM等多种经典预测模型相比,模型预测效果更优.  相似文献   

5.
BP学习算法多采用梯度下降法调整权值,针对其易陷入局部极小、收敛速度慢和易引起振荡的固有缺陷,提出了一种改进粒子群神经网络算法.其基本思想是:首先采用改进粒子群优化算法反复优化BP神经网络模型的权值参数组合,再用BP算法对得到的网络参数进一步精确优化,最后用得到精确的最优参数组合进行预测.实验结果表明,该算法在股指预测中的预测性能明显提高.  相似文献   

6.
针对物流工程领域学科所涉及的扩散方程中的扩散系数求解问题,建立了球形传递装置扩散优化控制模型.首先,利用球形坐标系变换公式,得到极坐标下的扩散优化控制模型.然后,采用迭代的方法,通过最小二乘法估计该模型的扩散系数.最后,通过数值实例,验证了扩散优化控制模型及算法的有效性和收敛性.  相似文献   

7.
将混沌优化算法与粒子群优化算法相结合,形成新的混沌粒子群优化算法.利用混沌运动的遍历性,避免陷入局部最优.同时,粒子群算法能加快混沌优化算法的收敛速度,使搜索效率得到提高.用混沌粒子群优化算法优化灰色GM(1,1)模型中的参数,通过横向和纵向比较,优化效果良好,模型预测精度得到了提高.运用该模型对三江平原地下水埋深进行动态预测,预测结果可为有关决策部门提供参考.  相似文献   

8.
针对混合核支持向量机(SVM)中的可调参数一般是根据经验或人工随机调试得到,不能确保参数最优的局限性,提出用粒子群和人工蜂群的并行混合优化(ABC-PSO)算法来优化混合核SVM参数,找出满足条件的最优参数组合.将该SVM模型应用到语音识别中,通过对三个不同语种的语音数据库的实验仿真,验证了混合算法优化SVM参数所得的优化SVM模型比PSO算法优化SVM所得的模型,具有良好的泛化能力和语音识别能力.  相似文献   

9.
研究含参数$l$非方矩阵对广义特征值极小扰动问题所导出的一类复乘积流形约束矩阵最小二乘问题.与已有工作不同,本文直接针对复问题模型,结合复乘积流形的几何性质和欧式空间上的改进Fletcher-Reeves共轭梯度法,设计一类适用于问题模型的黎曼非线性共轭梯度求解算法,并给出全局收敛性分析.数值实验和数值比较表明该算法比参数$l=1$的已有算法收敛速度更快,与参数$l=n$的已有算法能得到相同精度的解.与部分其它流形优化相比与已有的黎曼Dai非线性共轭梯度法具有相当的迭代效率,与黎曼二阶算法相比单步迭代成本较低、总体迭代时间较少,与部分非流形优化算法相比在迭代效率上有明显优势.  相似文献   

10.
GM(1,1)模型参数的神经网络算法   总被引:2,自引:0,他引:2  
GM(1,1)模型的实质是小样本、贫信息下的预测模型,其目的是得到误差尽可能小的预测值.在分析GM(1,1)模型建模机理的基础上,提出了GM(1,1)模型中参数a,b的一种新算法——神经网络算法.把神经网络中的BP算法应用于GM(1,1)模型的建模过程,实例表明可使预测精度得到提高.  相似文献   

11.
Smoothed penalty algorithms for optimization of nonlinear models   总被引:1,自引:0,他引:1  
We introduce an algorithm for solving nonlinear optimization problems with general equality and box constraints. The proposed algorithm is based on smoothing of the exact l 1-penalty function and solving the resulting problem by any box-constraint optimization method. We introduce a general algorithm and present theoretical results for updating the penalty and smoothing parameter. We apply the algorithm to optimization problems for nonlinear traffic network models and report on numerical results for a variety of network problems and different solvers for the subproblems.  相似文献   

12.
We propose an adaptive smoothing algorithm based on Nesterov’s smoothing technique in Nesterov (Math Prog 103(1):127–152, 2005) for solving “fully” nonsmooth composite convex optimization problems. Our method combines both Nesterov’s accelerated proximal gradient scheme and a new homotopy strategy for smoothness parameter. By an appropriate choice of smoothing functions, we develop a new algorithm that has the \(\mathcal {O}\left( \frac{1}{\varepsilon }\right) \)-worst-case iteration-complexity while preserves the same complexity-per-iteration as in Nesterov’s method and allows one to automatically update the smoothness parameter at each iteration. Then, we customize our algorithm to solve four special cases that cover various applications. We also specify our algorithm to solve constrained convex optimization problems and show its convergence guarantee on a primal sequence of iterates. We demonstrate our algorithm through three numerical examples and compare it with other related algorithms.  相似文献   

13.
Martin Gugat  Michael Herty 《PAMM》2013,13(1):587-588
We present results on a method for infinite dimensional constrained optimization problems. In particular, we are interested in state constrained optimal control problems and discuss an algorithm based on penalization and smoothing. The algorithm contains update rules for the penalty and the smoothing parameter that depend on the constraint violation. Theoretical as well as numerical results are given. (© 2013 Wiley-VCH Verlag GmbH & Co. KGaA, Weinheim)  相似文献   

14.
通过定义了一种基于数据最优分区间相似度算法,利用学习样本得单位相似度向量,并得各维数据的最优分区间.利用最优分区间得预测样本与学习样本的单位相似度向量,从而得预测样本的预测值.通过实例表明,算法所预测的结果相对误差可达百分位,并且本算法能应用到其它数据处理中,具有较广泛的通用性.  相似文献   

15.
In this article, a novel objective penalty function as well as its second-order smoothing is introduced for constrained optimization problems (COP). It is shown that an optimal solution to the second-order smoothing objective penalty optimization problem is an optimal solution to the original optimization problem under some mild conditions. Based on the second-order smoothing objective penalty function, an algorithm that has better convergence is introduced. Numerical examples illustrate that this algorithm is efficient in solving COP.  相似文献   

16.
17.
In this article, a smoothing objective penalty function for inequality constrained optimization problems is presented. The article proves that this type of the smoothing objective penalty functions has good properties in helping to solve inequality constrained optimization problems. Moreover, based on the penalty function, an algorithm is presented to solve the inequality constrained optimization problems, with its convergence under some conditions proved. Two numerical experiments show that a satisfactory approximate optimal solution can be obtained by the proposed algorithm.  相似文献   

18.
The paper outlines a finite sample version of exponential smoothing, and proposes a formula for estimating the smoothing parameter. The resulting method, which can be implemented on a recursive basis over time, is compared with alternative approaches, such as progressive numerical optimization of the smoothing parameter and adaptive forecasting on both synthetic and real data.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号