经典推断分析-统计分析-空间分析 .docx

经典推断分析-统计分析-空间分析 .docx

ID:61029517

大小:19.42 KB

页数:3页

时间:2021-01-20

经典推断分析-统计分析-空间分析 .docx_第1页
经典推断分析-统计分析-空间分析 .docx_第2页
经典推断分析-统计分析-空间分析 .docx_第3页
资源描述:

《经典推断分析-统计分析-空间分析 .docx》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、1.1经典推断分析经典推断分析本节首先带读者回顾一下经典的多元线性回归模型(MultipleLinearRegression),以作为介绍后续知识的铺垫。对于经典的多元线性回归模型较为熟悉的读者,可以跳过本节。在实际问题中,我们经常遇到“需要根据某个(或几个)变量的取值,预测其他变量可能取值”的情况。例如根据某些生化指标,医生需要判断某人是否患有某种疾病(或疾病的程度)等。同时,也会经常遇到“需要解释某个变量与其他变量之间的关系”的问题,例如,现在已经得知某食源性疾病发病数数据和经济、政治、食品安全监测数据,想了解该食源性疾病的发病数是否可以

2、从不同经济发展水平或其他相关指标的变化得到解释。通常将需要预测或解释的变量称为因变量或相应变量,常用Y表示;把影响因变量取值的另一些变量称为自变量或预测因子,常用X1,X2,...XP表示。回归分析的基本思想是:利用一个或多个变量的数据,预测或解释某个(或某些)其他的变量。(1)模型若变量Y与变量X1,X2,...XP之间有如下关系:2Y01x12x2pxpe(错误!文档中没有指定样式的文字。.1)其中:e为随机误差,并且e~N0,,0,1,,p是截距和系数,是待估参数。当p为1时,(错误!文档中没有指定样式的文字。.2)式称为一元

3、线性回归,当p2时,称为多元线性回归。误差项需要满足如下假设:①误差不相关,即covei,ej0,ij,i,j1,2,...n;②无系统误差,误差等方差且服从正态分布,即e~N0,2,i,j1,2,...n。(2)参数估计通常,模型的参数可以通过普通最小二乘法或极大似然法进行估计。(2)模型检验①方程整体的显著性原假设:模型各解释变量的系数都是0备择假设:模型各解释变量的系数不全为022回归方程的显著性通过F检验的p值判断,当p小于0.05,则该组数据能用该线性回归方程表示。方程的拟合优度:可以通过R或调整的R判断,值越大,说明方程

4、的拟合优度越好,变量解释因变量的能力越大。②参数显著性检验对于模型任意一个解释变量,原假设:解释变量的系数为0备择假设:解释变量的系数不为0回归系数的显著性可通过t检验p值判断,此当系数的t检验p值小于0.05时,回归系数的显著性通过。2ii多重共线性检验:多重共线性是指线性回归模型中的解释变量之间存在的精确相关关系或高度相关关系。多重共线性会导致模型参数无法被估计或参数估计值的方差过大。多重共线性可以通过方差膨胀因子VIF诊断,方差膨胀因子表ii达式为:VIF1(/1R)。其中R为自变量x对其余自变量作回归分析的复相关系数。当VIFi

5、很大时,表明自变量间存在多重共线性。多重共线可以通过逐步回归选择最优变量,它是以AIC信息统计量为准则,通过选择最小的AIC信息统计量,来达到删除或增加变量的目的。异方差检验:线性回归模型假定模型误差无系统误差,误差等方差且服从正态分布,若线性回归模型存在异方差性,则用传统的最小二乘法估计模型,得到的参数估计量有效性不足,参数显著性检验也会失效。通过White检验可法检验随机干扰项的异方差性。序列相关性检验:在原假设中,假定模型误差不相关,序列相关会导致最小二乘法得到的参数估计量的方差被高估或低估,回归得到的参数估计量的显著性水平的检验不再可信

6、等问题。序列相关性可以通过D.W.统计量检验,如果序列不相关,D.W.值在2附近,如果存在正序列相关,D.W.值将小于2,如果存在负序列相关,D.W.值将在2~4之间。(2)逐步回归变量选择是线性回归分析中需要解决的一个重点问题。回归变量的不同,对模型假设的成立与否,参数估计及模型预测的精确度都可能有很大的影响。逐步回归是解决变量选择问题的主要方法之一,也是避免多重共线的方法之一。逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显

7、著时,则将其删除。这是一个反复的过程,直到既没有显著的解释变量选入回归方程,也没用不显著的解释变量从回归方程中剔除为止。以保证最后所得到的解释变量集是最优的。依据上述思想,可利用逐步回归筛选并剔除引起多重共线性的变量,其具体步骤如下:先用被解释变量对每一个所考虑的解释变量做简单回归,然后以对被解释变量贡献最大的解释变量所对应的回归方程为基础,再逐步引入其余解释变量。经过逐步回归,使得最后保留在模型中的解释变量既是重要的,又没有严重多重共线性。

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。