共查询到20条相似文献,搜索用时 0 毫秒
1.
In the present paper, we give an investigation on the learning rate of l2-coefficient regularized classification with strong loss and the data dependent kernel functional spaces. The results show that the learning rate is influenced by the strong convexity. 相似文献
2.
给出基于二次损失的单位球盖(单位球)上确定型散乱数据核正则化回归误差的上界估计,将学习误差估计转化为核函数积分的误差分析,借助于学习理论中的K-泛函与光滑模的等价性刻画了学习速度.研究结果表明学习速度由网格范数所控制. 相似文献
3.
In this paper, we study the strong consistency and convergence rate of modified partitioning estimate of nonparametric regression function under the sample {(Xi, Yi),i ≥ 1} that is α sequence taking values in Rd × R1 with identical distribution. 相似文献
4.
5.
6.
7.
设(X,Y),(X_1,Y_1,),…,(X_n,Y_n)是一个平稳、φ—混合过程((X,Y)∈R~d×R,E|Y|~(s δ)<∞,s≥2,δ>0),用m(x)记E{Y|X=x},本文讨论了m(x)的如下估计m_n(x)的强收敛速度: 相似文献
8.
王学武 《应用泛函分析学报》2008,10(1):27-34
在一致凸Banach空间上,研究了半紧的非扩张压缩映象的修正Ishikawasa三重迭代序列的强收敛问题,建立并证明了若干强收敛定理,推广了Mann和Ishikawa的迭代方法,改进和发展了Xu和贾如鹏等作者的主要结果. 相似文献
9.
在平衡损失函数下,主要研究回归系数的线性Minimax估计问题.通过分析平衡损失风险的极大极小性,得到了线性优化计类中回归函数的Minimax估计.在适当的假设下,证明了其唯一性. 相似文献
10.
本文对仅在矩条件限制下的任意B值r.v.序列的强收敛性进行讨论,改进推广了已有的几个结果,使之成为本文结论的推论,同时也推广了其它相关的经典结论. 相似文献
11.
§ 1. Introduction SupposethatrandomvariableXhaspdf(forLebesguemeasure)f(x|θ) =u(x)m(θ)I(θ ,b) (x) ,(1 )whereθ>a≥ 0 ,θisthetruncationparameterofourinterestandb≤+∞ ,u(x)ispositiveLebesgueintegrablefunctionon (θ,b) ,m(θ) =[∫bθ(u(x)dx] - 1 .ThehypothesistobetestedisH0 ;θ≤θ0 H1 :θ >θ0 , (2 )whereθ0 isaknownconstant.LetlossfunctionisL(θ ,a0 ) =b0 max(θ -θ0 ,0 )foracceptingH0 andL(θ,a1 ) =b0 max(θ0 -θ,0 )foracceptingH1 ,whereb0 isapositiverealnumber,D ={a0 ,a1 }isth… 相似文献
12.
基于测量质量损失函数的控制图控制界限的优化 总被引:1,自引:0,他引:1
控制界限和抽样间隔是控制图的两个基本参数。常规控制图是基于3σ原理确定的控制界限,该控制界限是在大量试验基础上依据经验确定的,并没有精确的公式推导.对于抽样间隔,常规控制图也没有明确的规定。田口博士的质量损失函数可以很好的解决质量经济性方面的一些问题.利用田口博士的理论,通过确定适宜的二次测量质量损失函数,可以确定控制图的最佳控制界限和最佳抽样间隔.文章简要介绍了常规控制图原理和田口博士的质量损失函数,重点叙述了田口博士反馈控制系统的测量质量损失函数,在此基础上,研究了控制图最佳控制界限和最佳抽样间隔,并且通过具体实例验证了该控制图良好的经济性. 相似文献
13.
14.
{X_n,n≥1)是标准高斯序列,T_(ij)=cov(X_i,X_j)。本文在强相依条件rijlog(j-i)→r∈(0,∞)(j-i→ ∞)下,得到了高斯序列的最大值M_n与标准化部分和S_n=sum from i=1 to n(X_i/(E(sum from i=1 to n X_i)~2)/(1/2)) 相似文献
15.
16.
在加权平方损失函数下,获得广义Pareto分布形状参数的经验Bayes(EB)估计,并得到了该估计的收敛速度. 相似文献
17.
对于先验分布为正态逆伽玛分布的正态分布的方差参数,我们解析地计算了具有共轭的正态逆伽玛先验分布的在Stein损失函数下的贝叶斯后验估计量.这个估计量最小化后验期望Stein损失.我们还解析地计算了在平方误差损失函数下的贝叶斯后验估计量和后验期望Stein损失.数值模拟的结果例证了我们的如下理论研究:后验期望Stein损失不依赖于样本;在平方误差损失函数下的贝叶斯后验估计量和后验期望Stein损失要一致地大于在Stein损失函数下的对应的量.最后,我们计算了上证综指的月度的简单回报的贝叶斯后验估计量和后验期望Stein损失. 相似文献
18.
讨论了-般环境中二重随机游动的强泛函大数定律,给出了当过程几乎处处趋向于正无穷时的泛函大数定律成立的几个充分条件. 相似文献
19.
20.
BaoHuai Sheng 《中国科学 数学(英文版)》2012,55(6):1243-1256
In the present paper,we provide an error bound for the learning rates of the regularized Shannon sampling learning scheme when the hypothesis space is a reproducing kernel Hilbert space(RKHS) derived by a Mercer kernel and a determined net.We show that if the sample is taken according to the determined set,then,the sample error can be bounded by the Mercer matrix with respect to the samples and the determined net.The regularization error may be bounded by the approximation order of the reproducing kernel Hilbert space interpolation operator.The paper is an investigation on a remark provided by Smale and Zhou. 相似文献