首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
近年来,前向神经网络泛逼近的一致性分析一直为众多学者所重视。本文系统分析三层前向网络对于拟差值保序函数族的一致逼近性,其中,转换函数σ是广义Sigmoidal函数。并将此一致性结果用于建立一类新的模糊神经网络(FNN),即折线FNN.研究这类网络对于两个给定的模糊函数的逼近性,相关结论在分析折线FNN的泛逼近性时起关键作用。  相似文献   

2.
四层前向神经网络作为通用逼近器的一致性分析   总被引:2,自引:2,他引:0  
如果转移函数σ:R→R是Tauber-Wiener函数,即σ∈(TW), 本文给出了四层前向神经网络∑pi=1ui(q∑j=1uijσ(Aij·x+θij))作为通用逼近器的一致性分析,且选取了该网络具有某类特殊性质的连结权.例如,若f,g是连续函数,且f≤g,则相应的连结权关于f,g是递增的,等等.最后为验证结论,给出了一个模拟例子.  相似文献   

3.
Abstract. Four-layer feedforward regular fuzzy neural networks are constructed. Universal ap-proximations to some continuous fuzzy functions defined on (R)“ by the four-layer fuzzyneural networks are shown. At first,multivariate Bernstein polynomials associated with fuzzyvalued functions are empolyed to approximate continuous fuzzy valued functions defined on eachcompact set of R“. Secondly,by introducing cut-preserving fuzzy mapping,the equivalent condi-tions for continuous fuzzy functions that can be arbitrarily closely approximated by regular fuzzyneural networks are shown. Finally a few of sufficient and necessary conditions for characteriz-ing approximation capabilities of regular fuzzy neural networks are obtained. And some concretefuzzy functions demonstrate our conclusions.  相似文献   

4.
单隐层神经网络与最佳多项式逼近   总被引:7,自引:1,他引:6  
研究单隐层神经网络逼近问题.以最佳多项式逼近为度量,用构造性方法估计单隐层神经网络逼近连续函数的速度.所获结果表明:对定义在紧集上的任何连续函数,均可以构造一个单隐层神经网络逼近该函数,并且其逼近速度不超过该函数的最佳多项式逼近的二倍.  相似文献   

5.
研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式.  相似文献   

6.
葛彩霞 《应用数学》1999,12(1):47-49
本文研究三层前馈型神经网络的最佳逼近能力,我们证明以多项式函数为隐层神经元作用函数的三层前馈型神经网络,当隐层神经元的个数超过某个给定的界限时,网络的输入输出函数张成一有限维线性空间,从而它可以实现对C(K)的最佳逼近.并且猜测,对非多项式函数的作用函数,若神经元个数有限,则它不具有最佳逼近性质.  相似文献   

7.
神经网络的函数逼近能力分析   总被引:12,自引:0,他引:12  
本文综述了多层前传网络(MLP)及径向基函数网络(RBF)对函数任意精度逼近的能力,比较了两种网络的最佳逼近特性。对激活函数类的扩充作了介绍,并说明有限数值精度对函数逼近能力实现的影响。  相似文献   

8.
本文来自神经网络表示能力问题的研究,主要讨论单个函数满足什么条件其所有伸缩和平稳的线组合在某类函数空间稠密。本文结果对于神经网络理论研究具有重要意义。  相似文献   

9.
研究R上不连续函数可作为Sigma-Pi神经网络激励函数的条件,给出了R一局部黎曼可积函数可作为Sigma-Pi神经网络激励函数的特征条件,本文的结果表明:局部黎曼可积函数作为Sigma-Pi神经网络激励函数的特征条件与连续函数时的情形是一致的。  相似文献   

10.
虞旦盛  周平 《数学学报》2016,59(5):623-638
首先,引入一种由斜坡函数激发的神经网络算子,建立了其对连续函数逼近的正、逆定理,给出了其本质逼近阶.其次,引入这种神经网络算子的线性组合以提高逼近阶,并且研究了这种组合的同时逼近问题.最后,利用Steklov函数构造了一种新的神经网络算子,建立了其在L~p[a,b]空间逼近的正、逆定理.  相似文献   

11.
讨论了具一个隐层单元的神经网络在Ba空间中逼近的特征性定理并给出了逼近估计.对于平移网络,建立了Favard型估计.Orlicz空间中的相应结果均作为应用而给出.  相似文献   

12.
讨论了具一个隐层单元的神经网络在B_a空间中逼近的特征性定理并给出了逼近估计.对于平移网络,建立了Favard型估计.Orlicz空间中的相应结果均作为应用而给出.  相似文献   

13.
14.
In this paper, a constructive theory is developed for approximating functions of one or more variables by superposition of sigmoidal functions. This is done in the uniform norm as well as in the $L^p$ norm. Results for the simultaneous approximation, with the same order of accuracy, of a function and its derivatives (whenever these exist), are obtained. The relation with neural networks and radial basis functions approximations is discussed. Numerical examples are given for the purpose of illustration.  相似文献   

15.
借助于有关Fourier级数的Riesz平均构造出了一类含有一个隐含层的周期神经网络与平移网络,与已有的讨论相比较,在获得相同的逼近阶的情况下,此类网络的隐层单元要求较少的神经元个数.  相似文献   

16.
Recently, Li [16] introduced three kinds of single-hidden layer feed-forward neural networks with optimized piecewise linear activation functions and fixed weights, and obtained the upper and lower bound estimations on the approximation accuracy of the FNNs, for continuous function defined on bounded intervals. In the present paper, we point out that there are some errors both in the definitions of the FNNs and in the proof of the upper estimations in [16]. By using new methods, we also give right approximation rate estimations of the approximation by Li’s neural networks.  相似文献   

17.
非周期神经网络及平移网络在L_w~p中的逼近   总被引:3,自引:0,他引:3  
设s≥d≥1为整数, 1≤p≤+∞,借助于正交多元代数多项式系而构造了一类s维网络算子,并用于逼近Lpw[-1,1]s中的函数,给出了逼近的上界以及当此算子为平移网络算子及神经网络算子时的导数型估计.  相似文献   

18.
距离空间中的神经网络插值与逼近   总被引:4,自引:1,他引:3  
已有的关于插值神经网络的研究大多是在欧氏空间中进行的,但实际应用中的许多问题往往需要用非欧氏尺度进行度量.本文研究一般距离空间中的神经网络插值与逼近问题,即先在距离空间中构造新的插值网络,然后在此基础上构造近似插值网络,最后研究近似插值网络对连续泛函的逼近.  相似文献   

19.
Devices such as neural networks typically approximate the elements of some function space X by elements of a nontrivial finite union M of finite-dimensional spaces. It is shown that if X=L p () (1<p< and R d ), then for any positive constant and any continuous function from X to M, f–(f)>fM+ for some f in X. Thus, no continuous finite neural network approximation can be within any positive constant of a best approximation in the L p -norm.  相似文献   

20.
研究球面神经网络的构造与逼近问题.利用球面广义的de la Vallee Poussin平均、球面求积公式及改进的单变量Cardaliaguet-Euvrard神经网络算子,构造具logistic激活函数的单隐层前向网络,并给出了Jackson型误差估计.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号