spss回归分析结果解读

spss回归分析结果解读,第1张

非标准化系数(B):非标准化回归系数。回归模型方程中使用的是非标准化系数。

标准化系数(Beta):标准化回归系数。一般可用于比较自变量对Y的影响程度。Beta值越大说明该变量对Y的影响越大

t值:t检验的过程值,回归分析中涉及两种检验(t检验和F检验),t检验分别检验每一个X对Y的影响关系,通过t检验说明这个X对Y有显著的影响关系;F检验用于检验模型整体的影响关系,通过F检验,则说明模型中至少有一个X对Y有显著的影响关系。此处的t值,为t检验的过程值,用于计算P值。一般无需关注。

p值:t检验所得p值。P值小于005即说明,其所对应的X对因变量存在显著性影响关系。

VIF值:共线性指标。大于5说明存在共线性问题。

R²:决定系数,模型拟合指标。反应Y的波动有多少比例能被X的波动描述。

调整R²:调整后的决定系数,也是模型拟合指标。当x个数较多是调整R²比R²更为准确。

F检验:通过F检验,说明模型中至少有一个X对Y有显著的影响关系。分析时主要关注后面的P值即可。

D-W值:D-W检验值,Durbin-Watson检验,是自相关性的一项检验方法。如果D-W值在2附近(17~23之间),则说明没有自相关性,模型构建良好。

第一步:首先对模型整体情况进行分析

包括模型拟合情况(R²),是否通过F检验等。

第二步:分析X的显著性

分析X的显著性(P值),如果呈现出显著性,则说明X对Y有影响关系。如果不显著,则应剔除该变量。

第三步:判断X对Y的影响关系方向及影响程度

结合回归系数B值,对比分析X对Y的影响程度。B值为正数则说明X对Y有正向影响,为负数则说明有负向影响。

第四步:写出模型公式

第五步:对分析进行总结

SPSSAU也会提供智能分析建议,方便分析人员快速得出分析结果。

1、用每个自变量的标准化B/所有自变量标准化B之和,得出的百分比 即可表示该自变量对因变量的贡献占比,

2、逐步回归的基本思想是将变量逐个引入模型,每引入一个解释变量后都要进行F检验,并对已经选入的解释变量逐个进行t检验,当原来引入的解释变量由于后面解释变量的引入变得不再显著时,则将其删除。

以确保每次引入新的变量之前回归方程中只包含先主动变量。这是一个反复的过程,直到既没有显著的解释变量选入回归方程,也没有不显著的解释变量从回归方程中剔除为止。以保证最后所得到的解释变量集是最优的。

扩展资料:

SPSS进行逐步回归分析:

在自变量很多时,其中有的因素可能对应变量的影响不是很大,而且x之间可能不完全相互独立的,可能有种种互作关系。在这种情况下可用逐步回归分析,进行x因子的筛选,这样建立的多元回归模型预测效果会更较好。

逐步回归分析,首先要建立因变量y与自变量x之间的总回归方程,再对总的方程及每—个自变量进行假设检验。当总的方程不显著时,表明该多元回归方程线性关系不成立;而当某—个自变量对y影响不显著时,应该把它剔除,重新建立不包含该因子的多元回归方程。筛选出有显著影响的因子作为自变量,并建立“最优”回归方程。

回归方程包含的自变量越多,回归平方和越大,剩余的平方和越小,剩余均方也随之较小,预测值
的误差也愈小,模拟的效果愈好。但是方程中的变量过多,预报工作量就会越大,其中有些相关性不显著的预报因子会影响预测的效果。因此在多元回归模型中,选择适宜的变量数目尤为重要。

统计可以用很科学很复杂的方式去处理,也可以简单化的处理,主要看你数据的用途,如果不是需要发表论文之类,可以按以下简单方式来 *** 作,spss的回归过程,已经包含了验证。
1、在spss里把A、B、C、D四个变量对应的数据录入好。
2、点analyze--regession--linear,在d出框里,把变量D选定在dependent里,其他3个因子选到independent里。method里就用默认的enter。如果不需要看其他统计或验证的,直接点ok。结果里,R值就是回归的决定系数,代表各变量能解析因变量的程度。ANOVA里,sig小于005证明回归方程有效。constant对应的B值是截距。因子对应的beta值就是他们的标准化影响系数。 最后公式可以通过看B值那列,A、B、C变量对应的B值为系数,分别相乘,最后加上constant常数值即可。

相关分析:研究有没有关系,关系强度如何。

回归分析:研究影响关系如何,有没有影响关系,影响关系如何。

相关分析是研究有没有关系,回归分析是研究影响关系。明显地,相关分析是基础,然后再进行回归分析。首先需要知道有没有相关关系;有了相关关系,才可能有回归影响关系;如果没有相关关系,是不应该有回归影响关系的。

因而从分析角度,应该先进行相关分析,完成相关分析后,确认有了相关分析,再进行回归分析。

有时候会出现奇怪的现象,比如:

有回归影响关系,但是却没有相关关系此时建议以‘没有相关关系作为结论’

负向影响关系,但却是正向相关关系此时建议以‘有相关关系但没有回归影响关系作为结论’

回归分析 首先看结果中的第二个表格,就是你这个里面叫做 变异数分析的,如果这个里面的sig显著性大于005,说明你的回归模型不显著,其他的一切都没有意义,如果这个表的显著性<005,说明回归模型有意义,此时再考虑其他表格。其实从你最下面的最后那个图也可以看出来,明显的不是线性关系,而是一个曲线关系,所以你用这个回归分析是不正确的。

SPSS多元线性回归输出结果的详细解释
先说一句题外话,如果当年在大学里数理统计等课程结合SPSS,SAS,R等软件来讲,应该效果会好很多。
最近做了一些用SPSS进行线性回归的实验,还是感觉很多细节把握不好,这里结合我的实验结果,以及网上别人的介绍总结一下,先贴几张SPSS的输出:
下面简单解释一下这三张图中的结果:
第一个表模型汇总表中,R表示拟合优度(goodness of fit),它是用来衡量估计的模型对观测值的拟合程度。它的值越接近1说明模型越好。调整的R平方比调整前R平方更准确一些,图中的最终调整R方为0550,表示自变量一共可以解释因变量55%的变化(variance),另外,由于使用的是StepWise Linear Regression (SWLR),分析——回归——线性——“方法”选择“逐步”,所以模型1、2、3的R方逐渐增大,标准误差逐渐减小。
(据网友的介绍:一般认为,拟合优度达到01为小效应(R方001),03为中等R方009),05为大(R方025),这是针对自然科学的一般界限。)
第二个表Anova表示方差分析结果,主要看F和sig值两个,F值为方差分析的结果,是一个对整个回归方程的总体检验,指的是整个回归方程有没有使用价值(与随机瞎猜相比),其F值对应的Sig值小于005就可以认为回归方程是有用的。另外,从F值的角度来讲:F的值是回归方程的显著性检验,表示的是模型中被解释变量与所有解释变量之间的线性关系在总体上是否显著做出推断。若F>Fa(k,n-k-1),则拒绝原假设,即认为列入模型的各个解释变量联合起来对被解释变量有显著影响,反之,则无显著影响。
这里简单对Fa(k,n-k-1)进行一下解释,k为自变量个数,n为样本容量,n-k-1为自由度。对于我的实验中的情况来讲,k=3,样本容量为146,所以查表的时候应该差Fa(3,142),一般数理统计课本中都有F分布表,a表示的显著性水平(一般取005),但我们手头不一定会有课本,就需要借助于excel来查F表,打开excel,在公式区输入:=FINV(005,3,142),在单元格中即出现2668336761,表中的F值显著大于这个值,则认为各个解释变量对因变量有显著影响。
需要注意的是,方差分析是对多个自变量的总体检验,而不是单个自变量(单个自变量在系数表中,为单样本T检验),这就是第三个表回归系数表中的内容。
系数表格列出了自变量的显著性检验结果(使用单样本T检验),最后一列为T检验的sig,表中均小于005,说明自变量对因变量具有显著影响,B表示各个自变量在回归方程中的系数,负值表示IPGF这个自变量对因变量有显著的负向影响,但是由于每个自变量的量纲和取值范围不同,基于B并不能反映各个自变量对因变量影响程度的大小,这时候我们就要借助标准系数。目前表格中的“试用版”实际上是Beta的意思,此时数值越大表示对自变量的影响更大。
从这个分析过程来看,这个实验结果还挺理想的。

第一步:首先对模型整体情况进行分析

包括模型拟合情况(R²),是否通过F检验等。

第二步:分析X的显著性

分析X的显著性(P值),如果呈现出显著性,则说明X对Y有影响关系。如果不显著,则应剔除该变量。

第三步:判断X对Y的影响关系方向及影响程度

结合回归系数B值,对比分析X对Y的影响程度。B值为正数则说明X对Y有正向影响,为负数则说明有负向影响。

第四步:写出模型公式

第五步:对分析进行总结

SPSSAU也会提供智能分析建议,方便分析人员快速得出分析结果。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/10320096.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-07
下一篇 2023-05-07

发表评论

登录后才能评论

评论列表(0条)

保存