excel2016官方版怎么做一元线性回归分析图表分析数据

excel2016官方版怎么做一元线性回归分析图表分析数据,第1张

1、选择数据区域,在“插入”选项下的“图表”中,选择“散点图”;
2、在图表位置,单击鼠标右键,“添加趋势线”;
3、双击趋势线,在“设置趋势线格式”中,勾选“显示公式”“显示R的平方”,即可得到线性回归方程及相关系数的平方。

1、首先将预处理的数据输到单元格里。
2、“数据”里有一项“数据分析”。
3、在一堆数据分析工具里找到回归这一项。
4、对应框入Y值和X值,即可进行分析。
5、点击确定后,即出现分析结果。

第一个模型还可以,但是存在自相关(DW检验值也就是Durbin-Watson stat 为085,正自相关),需要进行差分处理。估计是一阶自相关。
第二个模型,自变量没有一个显著的,确实需要更改。
看模型是否合适,一是系数显著性检验,一是方程显著性检验。一元回归时,两个检验是一样的,所以第一个模型中,自变量X系数估计值显著(X对应的Prob值为0000,一般要求小于005就算通过),方程也显著(看F-statistic的值),但是一阶自相关最好消除。但是多元回归中,两个检验需要分开看。第二个模型中,方程显著性可能能通过检验,但是自变量系数估计值对应的Prob都大于005,所以问题比较大。
几个建议:
1、样本数据来源于1995年到2006年,感觉还是少了些,而且2011年的论文至少最晚应该是截止到2009年。如果条件允许,最好能够更早些数据。有25个以上年份数据,做的模型合适些。
2、第二个模型因为你没有列举具体自变量、因变量名称,不好下结论。那么,一个办法是考虑自变量的选择是不是合理,现有的自变量有没有可以去掉的,或者有没有遗漏更合理的自变量,调整自变量后再回归;如果你认为自变量不需要修改,在增加样本数据情况下,另一个办法是用SPSS软件,里面有“逐步回归”选项,看看能不能得到合理模型。第一个模型:一阶自相关怎么样才能消除?
第二个模型:我做的是山东省财政支农资金方面的课题,中国统计年鉴上的相关数据就到2006年,三个自变量的数据也是。三个自变量是必须要固定的,是不是因为数据的原因,但是近几年的数据确实找不到。三个自变量分别是:支援农业生产支出,农林水利气象等部门事业费,农业综合开发支出。因变量是:年均农民纯收入。这四个量都不能变。
我不会计量,eviews也是今天刚学的,spss更不会了。回答继续回答:
1、这里的一阶自相关,可以考虑用差分法试试。也就是自变量、因变量都分别形成新的序列,再做回归(注意:这时的回归估计模型不含常数项)。根据你的样本数据和解释变量数目,在新的回归结果里面,如果Durbin-Watson stat 的数值大致在15——25,可以认为消除了自相关。最后的估计结果,常数项仍采用现在模型已经估计出的常数项数值,自变量系数则是差分后估计的系数值。
2、财政支农资金数据,我觉得可以考虑查阅《中国财政统计年鉴》,其中的分省财政平衡表中可能会有相关数据。(不过我也不肯定,这两年中国统计年鉴中财政数据的具体项目有调整,你之所以找不到2006年以后数据原因也在于此,财政统计年鉴如果能找到的话,也许能有帮助)
3、第二个模型还可以考虑对数模型试一试,因为取对数后变差缩小,也许数据拟合效果会好些。当然,这时的系数表示的是平均意义的d性。
4、不会逐步回归也没有关系,反正自变量不多。回归后,看哪个自变量系数估计值没有通过检验(P值大于005),P值最大的先去掉,用其他自变量再去拟合。如果新的估计结果不行,再继续去掉不显著的系数。之后可以尝试再引入之前去掉的自变量,回归后看是否显著。最后应该得到自变量系数和整个模型都通过检验的结果,否则是不合适的。
5、“我第二个模型P值是0004”的说法不正确,你所说的实际是常数项的P值。实际上,一般要求自变量必须通过P检验,常数项倒无所谓。

调出excel选项,点击加载项。在可用加载宏中,勾选分析工具库,点击确定。详细步骤:

工具/原料:

品牌型号:联想GeekPro2020

系统版本:Win10家庭版

软件版本:Microsoft Excel 2019

1、打开excel表格,点击文件。

2、点击选项。

3、调出excel选项,点击加载项。

4、选择分析工具库,点击转到。

5、在可用加载宏中,勾选分析工具库,点击确定。

6、点击数据分析。

7、在分析工具中,选择回归。

8、选择X,Y值输入区域,点击确定。

9、生成线性回归分析表格。

以Excel2010为例。
1、“开发工具”选项卡 中单击“加载项”组中的“加载项”按钮,打开“加载宏”对话框。如下图。勾选 “分析工具库”。
2、“数据”选项卡中“分析”组中的“数据分析”按钮,打开“数据分析”对话框。如下图。单击“回归”选项。
剩下的楼主自己搞定吧。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/13084379.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-30
下一篇 2023-05-30

发表评论

登录后才能评论

评论列表(0条)

保存