共查询到19条相似文献,搜索用时 46 毫秒
1.
2.
给出一种求解线性矩问题的逼近方法,并给出以B样条函数为基的数值例子,证明了该方法的有效性. 相似文献
3.
研究多维Cardaliguet-Eurrard型神经网络算子的逼近问题.分别给出该神经网络算子逼近连续函数与可导函数的速度估计,建立了Jackson型不等式. 相似文献
4.
线性流形上的矩阵最佳逼近 总被引:7,自引:1,他引:7
戴华 《高校应用数学学报(A辑)》1994,(3):312-320
令S={A∈Rn×m|f1(A)=‖AX1-Z1‖2+‖YT1A-WT1‖2=min},其中X1∈Rm×k1,Z1∈Rn×k1,Y1∈Rn×11和W1∈Rm×11均为给定的矩阵,‖·‖是Frobenius范数。本文考虑如下问题:问题Ⅰ给定X2∈Rm×k2,Z2∈Rn×k2,Y2∈Rn×l2,W2∈Rm×l2,求A∈S,使得f2(A)=‖AX2-Z2‖2+‖YT2A-WT2‖2=min.问题Ⅱ给定A∈Rn×m,求A∈SA,使得‖A-A‖=infA∈SA‖A-A‖,其中SA是问题I的解集合。本文给出问题I解集合SA的通式和问题Ⅱ的解A的表达式,提出了求解问题Ⅰ与Ⅱ的数值方法。许多文献的结果都是本文结果的特例。 相似文献
5.
6.
本文给出并证明了拓扑σ(L^∞,L^1)下线性算子逼近L^∞函数的Korovkin定理。 相似文献
7.
证明En中的模糊数关于Sendograph度量可以用具有连续截集函数的模糊数任意逼近,并给出连续映射下由扩张原理导出的函数关于Sendograph度量也是连续的.特别地,具有连续的截集函数的模糊数在严格单调的连续函数之下的象也具有连续的截集函数. 相似文献
8.
证明了具有单一隐层的神经网络在L_ω~q的逼近,获得了网络逼近的上界估计和下界估计.这一结果揭示了神经网络在加权逼近的意义下,网络的收敛阶与隐层单元个数之间的关系,为神经网络的应用提供了重要的理论基础. 相似文献
9.
线性正算子只能达到一阶代数精度,通过对线性算子进行组合,可以得到具有高阶代数精度的逼近算子.本文给出保持x3不变的线性逼近算子的具体形式. 相似文献
10.
线性流形上中心对称矩阵的最佳逼近 总被引:9,自引:1,他引:9
1 引 言令Rn×m表示所有n×m阶实矩阵集合;ORn×n表示所有n×n阶正交矩阵之集;A+表示矩阵A的Moore-Penrose广义逆;Iκ表示κ阶单位阵;||·||表示矩阵的Frobenius范数;rank(A)表示矩阵A的秩.设ei为n阶单位矩阵In的第i列(i=1,2,…,n),记Sn=(en,en-1,…,e1),易知 相似文献
11.
12.
近年来,前向神经网络泛逼近的一致性分析一直为众多学者所重视。本文系统分析三层前向网络对于拟差值保序函数族的一致逼近性,其中,转换函数σ是广义Sigmoidal函数。并将此一致性结果用于建立一类新的模糊神经网络(FNN),即折线FNN.研究这类网络对于两个给定的模糊函数的逼近性,相关结论在分析折线FNN的泛逼近性时起关键作用。 相似文献
13.
周观珍 《数学物理学报(A辑)》2005,25(4):569-576
讨论了具一个隐层单元的神经网络在B_a空间中逼近的特征性定理并给出了逼近估计.对于平移网络,建立了Favard型估计.Orlicz空间中的相应结果均作为应用而给出. 相似文献
14.
周观珍 《数学物理学报(A辑)》2005,(4)
讨论了具一个隐层单元的神经网络在Ba空间中逼近的特征性定理并给出了逼近估计.对于平移网络,建立了Favard型估计.Orlicz空间中的相应结果均作为应用而给出. 相似文献
15.
Vugar E. Ismailov 《Numerical Functional Analysis & Optimization》2019,40(12):1395-1409
We obtain a sharp lower bound estimate for the approximation error of a continuous function by single hidden layer neural networks with a continuous activation function and weights varying on two fixed directions. We show that for a certain class of activation functions this lower bound estimate turns into equality. The obtained result provides us with a method for direct computation of the approximation error. As an application, we give a formula, which can be used to compute instantly the approximation error for a class of functions having second order partial derivatives. 相似文献
16.
Recently, Li [16] introduced three kinds of single-hidden layer feed-forward
neural networks with optimized piecewise linear activation functions and fixed
weights, and obtained the upper and lower bound estimations on the approximation
accuracy of the FNNs, for continuous function defined on bounded intervals. In the
present paper, we point out that there are some errors both in the definitions of the
FNNs and in the proof of the upper estimations in [16]. By using new methods, we
also give right approximation rate estimations of the approximation by Li’s neural
networks. 相似文献
17.
18.
解线性不等式的神经网络 总被引:2,自引:0,他引:2
本文提出两个解线性不等式的Hopfiedl-Tank型的神经网络。第一个网络模拟同时松弛投影方法,第二个网络是二次规划方法。当线性不等式的解集非空时,这两个方法都给出该线性不等式的解。同时我们还给出了这两个网络的数值模拟。 相似文献
19.
《Numerical Functional Analysis & Optimization》2013,34(2):271-283
ABSTRACT Given the importance of standard deviation in applications, we think that it is worthwhile considering other types of deviations. For this purpose, we introduce a generalization of the concept of deviation. We also introduce a new definition for the concept of generalized mean. We then highlight the connection that exists between arithmetic mean, standard deviation, and best approximation, and we establish necessary and sufficient conditions that would guarantee the existence of similar connections between generalized means, generalized deviations, and best approximation. We finish by presenting some open problems. 相似文献