排序方式: 共有22条查询结果,搜索用时 15 毫秒
1.
2.
RBF神经网络的梯度下降训练方法中的学习步长优化 总被引:9,自引:0,他引:9
梯度下降法是训练RBF神经网络的一种有效方法。和其他基于下降法的算法一样,RBF神经网络的梯度下降训练方法中也存在学习步长的取值问题。本文基于误差能量函数对学习步长的二阶Taylor展开,构造了一种优化学习步长的方法,进行了较详细的推导:实验表明,本方法可有效地加速梯度下降法的收敛速度、提高其性能。该方法的思想可以用于其他基于下降法的学习步长的优化中。 相似文献
3.
研究由相位谱重构有限长离散信号,即幅度补偿问题的收敛性。文章独立地以归一化相关系数对经典迭代法的收敛性进行了证明。通过该证明,可体会到经典迭代法之所以可进行信号重构的机理。 相似文献
4.
针对DCT变换存在浮点运算、运算量大等问题,H.26L提出了整数变换,它能够很好地消除浮点运算,避免逆变换不匹配,但存在精度不高的问题。在基于提升结构(liftingstructure)的无乘法二进制DCT(binDCT)的基础上,对参数进行选择优化,并将浮点DCT、整数变换和binDCT在结构和性能上进行比较分析,选择一组binDCT参数,使binDCT既能避免浮点运算又能降低运算量,且更有利于压缩。 相似文献
5.
时间序列相空间重构中,时间延迟参数选择具有重要意义。文章(1)提出,一般可以用时间序列平均绕行时间的四分之一作为二维混沌吸引子重构的时间延迟,文献(2)建议使用系统伪周期的四分之一。 相似文献
6.
7.
8.
9.
10.