共查询到19条相似文献,搜索用时 62 毫秒
1.
近年来,前向神经网络泛逼近的一致性分析一直为众多学者所重视。本文系统分析三层前向网络对于拟差值保序函数族的一致逼近性,其中,转换函数σ是广义Sigmoidal函数。并将此一致性结果用于建立一类新的模糊神经网络(FNN),即折线FNN.研究这类网络对于两个给定的模糊函数的逼近性,相关结论在分析折线FNN的泛逼近性时起关键作用。 相似文献
2.
四层前向神经网络作为通用逼近器的一致性分析 总被引:2,自引:2,他引:0
如果转移函数σ:R→R是Tauber-Wiener函数,即σ∈(TW), 本文给出了四层前向神经网络∑pi=1ui(q∑j=1uijσ(Aij·x+θij))作为通用逼近器的一致性分析,且选取了该网络具有某类特殊性质的连结权.例如,若f,g是连续函数,且f≤g,则相应的连结权关于f,g是递增的,等等.最后为验证结论,给出了一个模拟例子. 相似文献
3.
刘普寅 《高校应用数学学报(英文版)》2001,16(1):45-57
Abstract. Four-layer feedforward regular fuzzy neural networks are constructed. Universal ap-proximations to some continuous fuzzy functions defined on (R)“ by the four-layer fuzzyneural networks are shown. At first,multivariate Bernstein polynomials associated with fuzzyvalued functions are empolyed to approximate continuous fuzzy valued functions defined on eachcompact set of R“. Secondly,by introducing cut-preserving fuzzy mapping,the equivalent condi-tions for continuous fuzzy functions that can be arbitrarily closely approximated by regular fuzzyneural networks are shown. Finally a few of sufficient and necessary conditions for characteriz-ing approximation capabilities of regular fuzzy neural networks are obtained. And some concretefuzzy functions demonstrate our conclusions. 相似文献
4.
5.
研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式. 相似文献
6.
本文研究三层前馈型神经网络的最佳逼近能力,我们证明以多项式函数为隐层神经元作用函数的三层前馈型神经网络,当隐层神经元的个数超过某个给定的界限时,网络的输入输出函数张成一有限维线性空间,从而它可以实现对C(K)的最佳逼近.并且猜测,对非多项式函数的作用函数,若神经元个数有限,则它不具有最佳逼近性质. 相似文献
7.
神经网络的函数逼近能力分析 总被引:12,自引:0,他引:12
本文综述了多层前传网络(MLP)及径向基函数网络(RBF)对函数任意精度逼近的能力,比较了两种网络的最佳逼近特性。对激活函数类的扩充作了介绍,并说明有限数值精度对函数逼近能力实现的影响。 相似文献
8.
本文来自神经网络表示能力问题的研究,主要讨论单个函数满足什么条件其所有伸缩和平稳的线组合在某类函数空间稠密。本文结果对于神经网络理论研究具有重要意义。 相似文献
9.
研究R上不连续函数可作为Sigma-Pi神经网络激励函数的条件,给出了R一局部黎曼可积函数可作为Sigma-Pi神经网络激励函数的特征条件,本文的结果表明:局部黎曼可积函数作为Sigma-Pi神经网络激励函数的特征条件与连续函数时的情形是一致的。 相似文献
11.
周观珍 《数学物理学报(A辑)》2005,(4)
讨论了具一个隐层单元的神经网络在Ba空间中逼近的特征性定理并给出了逼近估计.对于平移网络,建立了Favard型估计.Orlicz空间中的相应结果均作为应用而给出. 相似文献
12.
周观珍 《数学物理学报(A辑)》2005,25(4):569-576
讨论了具一个隐层单元的神经网络在B_a空间中逼近的特征性定理并给出了逼近估计.对于平移网络,建立了Favard型估计.Orlicz空间中的相应结果均作为应用而给出. 相似文献
13.
14.
D. Costarelli & R. Spigler 《分析论及其应用》2013,29(2):169-196
In this paper, a constructive theory is developed for approximating functions of one or more variables by superposition of sigmoidal functions. This is done in the uniform norm as well as in the $L^p$ norm. Results for the simultaneous approximation, with the same order of accuracy, of a function and its derivatives (whenever these exist), are obtained. The relation with neural networks and radial basis functions approximations is discussed. Numerical examples are given for the purpose of illustration. 相似文献
15.
16.
17.
Recently, Li [16] introduced three kinds of single-hidden layer feed-forward
neural networks with optimized piecewise linear activation functions and fixed
weights, and obtained the upper and lower bound estimations on the approximation
accuracy of the FNNs, for continuous function defined on bounded intervals. In the
present paper, we point out that there are some errors both in the definitions of the
FNNs and in the proof of the upper estimations in [16]. By using new methods, we
also give right approximation rate estimations of the approximation by Li’s neural
networks. 相似文献
18.
距离空间中的神经网络插值与逼近 总被引:4,自引:1,他引:3
已有的关于插值神经网络的研究大多是在欧氏空间中进行的,但实际应用中的许多问题往往需要用非欧氏尺度进行度量.本文研究一般距离空间中的神经网络插值与逼近问题,即先在距离空间中构造新的插值网络,然后在此基础上构造近似插值网络,最后研究近似插值网络对连续泛函的逼近. 相似文献
19.
Devices such as neural networks typically approximate the elements of some function space X by elements of a nontrivial finite union M of finite-dimensional spaces. It is shown that if X=L
p
() (1<p< and R
d
), then for any positive constant and any continuous function from X to M, f–(f)>f–M+ for some f in X. Thus, no continuous finite neural network approximation can be within any positive constant of a best approximation in the L
p
-norm. 相似文献