首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
当自变量间存在复共线性时,最小二乘估计就表现出不稳定并可能导致错误的结果.本文采用广义岭估计β(K)来估计多元线性模型的回归系数β=vec(B),通过岭参数K值的选取,可使广义岭估计的均方误差MSE小于最小二乘估计的MSE.指出了广义岭估计中根据MSE准则选取K值存在的主要缺陷,采用了一种选取K值的新准则Q(c),它包含MSE准则和最小二乘LS准则作为特例,从理论上证明和讨论了Q(c)准则的优良性,阐明了c值的统计含义,并给出了确定c值的方法.  相似文献   

2.
回系数的广义根方估计及其模拟   总被引:2,自引:0,他引:2  
夏结来  郭祖超 《应用数学》1994,7(2):187-192
文献[1,2]中提出了回归系数的根方估计β^(k),当回归自变量间存在复共线关系时,β^(k)较回归系数的最小二乘估计β有所改善。本文将根方估计作一拓广,得出了回归系数的广义根方估计β^(K),其中K为对角阵。文中证明了广义根方估计β^(K)较β^(k)能更有效地改善最小二乘估计,并给出了广义根方估计的显式解,在此基础上,提出了广义根方估计的显式解和一种确定ki的方法。  相似文献   

3.
关于广义压缩最小二乘估计的注记   总被引:1,自引:0,他引:1  
赵泽茂 《应用数学》1995,8(1):90-95
本文研究了广义压缩最小二乘估计(GSLSE)的一些性质,给出了它的均方误差(MSE)的一个无偏估计量(UE),采用极小该UE的方法确定了GSLSE的参数选取公式,并把这个统一化的方法应用于广义岭估计,岭估计、Massy主成分估计、Stein型压缩估计以及根方有偏估计等,从而得到了它们的一种选取参数的方法,最后,结合Hald实例进行比较分析,结果表明,本文的方法是实用的,有效的。  相似文献   

4.
广义岭估计优于最小二乘估计的两个充分条件   总被引:1,自引:0,他引:1  
分别给出了线性回归模型未知参数β的广义岭估计在MSE准则和PC准则下优于LS估计的充分条件.  相似文献   

5.
回归系数Stein压缩估计的小样本性质   总被引:10,自引:0,他引:10  
本文在广义均方误差(GMSE)准则下给出了回归系数β的Stein估计优于最小二乘(LS)估计的充分必要条件,然后在Pitman Closeness(PC)准则下比较了Stein估计相对于LS估计的优良性,本文最后给出了一个特别的注记。  相似文献   

6.
在生长曲线模型中将设计阵的奇异值分解与普通的岭估计相结合,针对设计阵A与C至少有一个病态时的情况提出生长曲线模型中基于奇异值分解的岭估计.比较其在均方误差,均方误差矩阵,及PC准则下相对于最小二乘估计的优良性.证明其容许性并利用Hemmerle和Brantle用于确定广义岭估计参数的方法给出极小化均方误差的无偏估计法选取岭参数.  相似文献   

7.
考虑线性回归模型Y=Xβ+ε,E()ε=0,Cov()ε=2σI(1),当设计矩阵X的列存在共线性时,最小二乘估计^β=(X′X)-1X′Y的性质变坏,为此给出了有偏估计^(βK,d)=(X′X+K)-1(X′Y+d^β),其中K为对角矩阵,K=diag(k1,…kp),ki≥0,d>0为参数,讨论了这种有偏估计与广义岭估计、Liu估计的比较,并证明了其可容许性估计.  相似文献   

8.
增长曲线模型回归系数的广义岭估计   总被引:4,自引:0,他引:4  
本文采用广义岭估计β(K)来估计增长曲线模型中回归系数β=vec(B),通过K值的选取,可使其均方误差(MSE)小于LS估计β的MSE。同时对LS估计的任一线性变换,给出了其均方误差的一个无偏估计,并应用极小化β(K)的MSE的无偏估计的方法,得到了确定岭参数的公式。  相似文献   

9.
本文对多元线性模型的参数β=vec(B)提出了一种新的主成分估计─—组合主成分估计β,得到了它的一些良好的性质,证明了在均方误差准则下,在一定的条件下,此估计优于最小二乘估计(LSE),并给出了实例.  相似文献   

10.
回归系数的广义根方估计及其模拟   总被引:9,自引:0,他引:9  
文献[1,2]中提出了回归系数的根方估计~(k),当回归自变量间存在复共线关系时,~(k)较回归系数的最小二乘估计有所改善,本文将根方估计作一拓广,得出了回归系数的广义根方估计~(K),其中K为对角阵,文中证明了广义根方估计~(K)较~(k)能更有效地改善最小二乘估计,并给出了广义根方估计的显式解,在此基础上,提出了广义根方估计的显式解和一种确定k_i的方法。  相似文献   

11.
部分线性模型中估计的渐近正态性   总被引:45,自引:1,他引:45  
考虑回归模型其中是未知函数,(x_i,t_i,u_i)是固定非随机设计点列,β是待估参数,e_i是随机误差。基于g(·)及f(·)的一类非参数估计(包括常见的核估计和近邻估计),我们构造了β的加权最小二乘估计,并证得了最小二乘估计和加权最小二乘估计的渐近正态性。  相似文献   

12.
本文对多元线性模型回归系数的最小二乘估计的任一线性变换,给出了均方误差的一个无偏估计,并应用统一方法,即极小化均方误差的无偏估计的方法,对岭估计和广义岭估计给出了确定偏参数的公式。最后给出了一个实例。  相似文献   

13.
PC准则下回归系数的一类线性估计的优良性   总被引:9,自引:0,他引:9  
设线性回归模型为,此处n≥p,X的秩为R(X)=s,00为常数,∑_0为正定阵。本文证明了:在适当条件下(?)于PC准则下优于(?)并将这一结果应用于回归系数的岭估计、广义岭估计、压缩估计和Bayes估计。  相似文献   

14.
岭估计优于最小二乘估计的条件   总被引:4,自引:0,他引:4  
本文讨论在均方误差意义下岭估计优于最小二乘估计的问题,给出了岭估计优于小最小二乘估计的必要条件及较一般的充分条件。  相似文献   

15.
对于聚集数据的多元线性模型,提出了参数的多元聚集广义岭估计的概念,给出了多元聚集广义岭估计相对于最小二乘估计及最佳线性无偏估计的两种相对效率,并得到了这两种相对效率的上界.  相似文献   

16.
陈世基 《数学研究》1994,27(2):94-101
对于两个相依线性回归方程组成的系统(1.1),本文提出了β1的待定系数估计β^*1(k,c)=(x′1x1 k1)^-1(x′1y1-cσ12/σ22x′1N2y2),其中岭参数k≥0.c是待定系数.与β^*1(k,c)对应的非限定两步估计记为β^41(T,k,c).当c=1时β^*1(k,1)=β1(k)和β^*1(T,k,1)=β1(T,k)等干[6]引入的一双有偏估计,结果表明总可以选取适当的c值和k值使β^*1(k,c)和β^*1(T,k,c)在均方误差阵准则下分别优于β1和β1(T),并讨论了c值的最佳选择问题.  相似文献   

17.
针对一般带约束的最小二乘估计(ORLSE)在参数估计中处理复共线性的不足,引入随机线性约束,提出了约束k-d估计方法。在均方误差(MSE)下,讨论了它的性质,得到了四个主要结果,与带约束的最小二乘估计ORLSE、约束岭估计(RRE)和约束型Liu估计比较,得出更好的结论。  相似文献   

18.
研究了半参数回归模型的参数估计问题,利用压缩估计方法给出了模型的一类有偏估计,并与最小二乘估计、岭估计、几乎无偏岭估计进行了比较.在均方误差意义下,新的压缩估计明显优于最小二乘估计.最后讨论了有偏参数选取的问题.  相似文献   

19.
对于聚集数据的线性模型,给出了参数β的聚集改进广义Liu估计,研究了该估计相对于最小二乘估计及相对于Peter—Karsten估计的两种相对效率,并得到了相对效率的上界.实例分析表明,聚集改进广义Liu估计比最小二乘估计、Peter—Karsten估计更有效.  相似文献   

20.
首先给出了Jam es-S te in估计优于岭估计的充分条件,随后在P itm an准则下给出了Jam es-S te in估计优于最小二乘估计的简短证明.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号