首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
对广义凸损失函数和变高斯核情形下正则化学习算法的泛化性能展开研究.其目标是给出学习算法泛化误差的一个较为满意上界.泛化误差可以利用正则误差和样本误差来测定.基于高斯核的特性,通过构构建一个径向基函数(简记为RBF)神经网络,给出了正则误差的上界估计,通过投影算子和再生高斯核希尔伯特空间的覆盖数给出样本误差的上界估计.所获结果表明,通过适当选取参数σ和λ,可以提高学习算法的泛化性能.  相似文献   

2.
顾伟国  傅勤  吴健荣 《数学杂志》2016,36(3):655-666
本文提出并研究一类非线性系统的分段迭代学习控制问题.基于P型学习律和D型学习律构建得到分段迭代学习控制律,利用压缩映射原理,证明这种分段迭代学习律能使得系统的输出跟踪误差沿迭代轴方向收敛.仿真算例验证了算法的有效性.  相似文献   

3.
本文研究线性广义系统存在固定初始偏移时的迭代学习控制问题.利用矩阵奇异值分解的方法,将广义系统转化为微分代数系统,再根据微分代数系统的性质,构建得到一种新的迭代学习控制算法,该算法由部分PD型算法和部分P型算法混合而成.利用压缩映射原理,证明在这种学习算法的作用下,系统的状态跟踪误差渐近收敛于零.为消除固定初始偏移的影响,本文进一步将初始修正策略应用到广义系统上,并由此构建得到相应的学习算法.证明在这种学习算法的作用下,可实现状态轨迹在预定有限时间区间上对期望轨迹的完全跟踪,且与初始偏移量的大小无关.仿真算例验证了算法的有效性.  相似文献   

4.
孙方裕 《计算数学》1992,14(4):472-479
§1.引言 本文讨论计算高维压缩函数不动点的ε逼近的复杂性、构造高维不动点包络(MFPE)算法并证明此算法在绝对误差标准下为最优误差算法,同时给出误差估计的一个递推关系式,从而解决了[3]中未解决的问题.  相似文献   

5.
研究一类分布参数系统的迭代学习控制问题,该类分布参数系统由二阶非线性双曲型偏微分方程构成.针对系统所满足的性质.基于P型学习律构建得到迭代学习控制律,利用压缩映射原理,证明这种学习律能使得系统的输出跟踪误差于L。空间内沿迭代轴方向收敛.数值例子说明了算法的可适用性.  相似文献   

6.
时变神经网络结构可简单地取为常规神经网络连接形式,但连接权却是时变的.如何确定时变权是应用时变神经网络时的难题.迭代学习方法是一种合理的选择,它不同于将时变连接权展成Taylor级数,通过训练多项式系数的处理方法.而且,后者的处理方式不可避免地存在截断误差.对于有限区间连续时变非线性系统的神经网络建模与辨识,借助于重复运行过程,以迭代学习算法调整权值,进行网络训练.不计逼近误差,提出的学习算法能够使得辨识误差在整个区间上渐近收敛于零.为处理非零但有界的逼近误差,采用带死区的迭代学习算法.逼近误差界值已知时,文中证明带死区修正的迭代学习算法使得辨识误差在整个区间上渐近收敛于由死区界定的邻域内.对于逼近误差界值未知的情形也进行了讨论.  相似文献   

7.
本文研究了一致光滑Banach空间中迭代算法等价性的问题.利用泛函分析的方法,获得了广义强连接Φ伪压缩算子在具误差的修正的Mann-Ishikawa迭代和具误差的修正的multi-step 迭代下收敛等价性的结果,推广了目前的相关结果.  相似文献   

8.
本文研究了学习理论中推广误差的界的问题.利用ε不敏感损失函数的性质,分别获得r逼近误差和估计(样本)误差的界,并在特定的假设空间上得到了学习算法推广误差的界.  相似文献   

9.
联想记忆系统学习算法的改进   总被引:3,自引:0,他引:3  
借助于牛顿向后插公式对文 [1 ]的 NFI-AMS学习算法进行了改进 ,改进后的联想记忆系统的学习算法不但具有原来学习算法的收敛速度快、学习精度高等优点 ,而且还具备了 CMAC-AMS本身具有的局部泛化 (generalaization亦称推广 )能力以及对周围信息的收集能力大大增强等等 .数值模拟表明 ,这种改进的NFI-AMS在信号处理、模式识别及高精度的实时智能控制等领域具有很大的应用潜力  相似文献   

10.
在赋范空间中引入有限族渐近伪压缩型映象,在较弱条件下,在赋范空间中建立了有限族渐近伪压缩型映象不动点的带误差的迭代算法的一个强收敛定理.也给出几个例子说明结果的有效性与广泛性,从而改进和推广了Rafiq和其他人的结果.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号