多元非线性回归分析是指包含两个以上变量的非线性回归模型。对多元非线性回归模型求解的传统做法,仍然是想办法把它转化成标准的线性形式的多元回归模型来处理。Probit回归:
Probit回归全称probability unit,翻译过来叫做概率单位法,蛮拗口的一个名字。这个回归主要用于研究半数效量用的。直白一点说,就是比方你拿一种药去药蟑螂,你想知道你用多少药能药死多少蟑螂,那你就可以用probit回归来估计这个数。Probit回归经常拿来和logistic回归作比较,通常对于二分类变量来说,这两个回归计算出来的概率是非常相似的。(虽然logistic回归最后判断的是是或否,但是它也需要计算一个概率来判断这个结果倒是是还是否。)而且如果有一点数学基础的话,会知道,这两个回归画出来的图也非常像,只是logistic回归画出来的Z型稍微平缓一些。
那么这两个回归到底有什么区别呢?通常来说区别不大。最重要的一个区别在于probit回归适用于呈正态分布的数据,logistic回归适用于呈logistic分布的数据。不过这个区别也蛮微妙的,因为正态分布和logistic分布还蛮像的。所以大概来讲,到底是选择哪个分布更多的还是一种个人喜好。
但是大家都知道啊,logistic分布比probit分布可有名多了。如果说十个从事大数据的人里边有五个人知道logistic回归,那么有三个知道probit回归就不错了。在我们ppv课网站的spss视频教学里边,绝大部分都会讲到logistic回归,但是probit回归就不见得有人讲了。(顺便说一句,我个人最喜欢spss从入门到精通这套课程,刚入门的时候就是听得这套课。强烈推荐大家去听一听)。
那么这是什么原因呢?这绝不是probit不好用的原因。主要原因有两个,第一,logistic回归形式比较多。二分类,有序多分类,无序多分类,这些logistic回归都可以做。这就好像我们ppv课网站提供了spss,sas,r,matlab,hadoop等等视频,你可以从零基础学到精通级别,肯定比较受欢迎哈。第二,则归功于logistic回归的易解释性。Logistic回归提供了一个很重要的参数,OR值,这个值很直接的告诉你处于某个状态比处于另一个状态时因变量发生的概率增加了多少倍。这当然是一个很重要很直观的参数啦。就好像你每学一段时间以后,我们ppv课网站告诉你你的知识积累比之前增加了多少倍多少倍,这个肯定很重要撒。
因此呢,logistic回归就比probit回归应用的广泛了。不过这并不是说logistic回归就比probit回归好。实际上,两种回归拟合的方程几乎一样好。不过,再怎么几乎一样,那也肯定是有所不同的。可惜这种不同用你的肉眼一般是看不出来的,至于怎么看,下边在讲。
好了,现在大概就介绍完probit回归的背景知识了(绝对没有凑字数)。现在我们开始 *** 作。
首先假设一个情景,假设我们ppv课网站打算增加一定的课程,达到收视率增加百分之二十的目的,我们就有了三个变量,课程增加的数目(假设分为3,6,9三个水平),各个增加水平的课程数(比方加3节课,6节课,9节课的都是十个课程),各个水平的课程的收视率增加达到百分之二十的课程数(假设分别是3,5,6)。(这段真的有点绕,最好读两遍保证能看懂哪个变量是表示的什么意思)。
那么我们就有了一个33的数据集,选择菜单分析——回归——probit,打开主面板,响应频率里选我们各个水平收视率增加达到百分之二十的课程数(也就是我们做实验的课程里边有多少课程成功达到了收视率增加的目标),观测值汇总里边选择各个增加水平的总课程数,再下边有一个因子,一个协变量。我们的自变量课程增加的水平是三节课一个台阶,所以我们要选到协变量里边去哈。(如果你的自变量是连续型变量,那你就得在因子下边的那个定义范围里边选好范围。)此外协变量下边有一个转换下拉菜单,这个菜单有三种方法,除了“无”以外,还有两种对数转换,你可以试试,你的数据到底怎么转换效果最好。完了以后,在左下边还有一个模型:概率/logit,这个单选框里默认的是概率。也就是默认数据分布是正态的。这个也不用管它。
然后点开选项,勾选频率,信仰置信区间,继续,确定。
然后就可以看结果了。参数值和卡方检验这两个表会告诉你这个模型有没有意义,适不适合用probit回归(如果想和logistic回归作比较,就可以用这里的拟合度检验检测)。此外置信限度这个很大的表会告诉你假如你想要你的课程收视率增加的概率是百分之八十的时候,你的课程要增加多少节课这么个数据。它大概是以百分之五为精度的。那如果我想知道增加百分之八十三,需要加多少节课的话,那么我们就要用参数估计值里的参数进行计算了。
非线性回归
自然界中既然有线性回归,那么理所当然的,也会有非线性回归。不过,人类对于非线性回归的研究远远不如对线性回归的研究来的深刻,广泛。不信你看一看你的spss教科书,线性回归的内容可以洋洋洒洒写一章,非线性回归确占一小节,还往往是比较薄的一节。
线性回归指的是y=a+a1x1+a2x2…这种形式的方程,非线性回归包含的方程类型就多得多了。常见的有,幂函数,指数函数,双曲函数,对数函数等等。我们先举个例子。假设想拟合ppv课授课老师的数目和网站受欢迎程度的关系。选择分析——回归——非线性。打开主对话框。因变量选择网站受欢迎程度,模型表达式需要自己编辑。(我就挺怵这个的),首先我们知道,我们肯定不可能看一眼就看出我们的数据是什么样子的模型,我们可以通过图形——图表构建程序里边,画出散点图,通过散点图大致判断我们的模型符合什么样的方程,然后在进一步使用(或者直接使用)参数估计法(前面讲过的),估计出它的表达式。
估计出表达式以后,就可以编辑模型表达式了。编辑好以后看左下角的参数那一栏。你的模型里边的参数是需要首先定义一个初始值的。这个初始值要尽量靠近真实值,如果离真实值太远的话,也会影响到模型的准确度。看到这里,可能你要发脾气了,这是个什么模型?怎么这么麻烦?!!要是我知道模型,知道初始值,那我还需要做分析吗啊?!!唉,我也没办法,非线性回归就是这么个玩意,总之你还是拿起你的笔,根据你的模型代几组数据算一算大概的初始值吧。毕竟为了最后的精度嘛。
输好初始值以后,打开保存对话框,勾选预测值,残差。继续,其他的默认就可以。点确定。
输出的参数估计值会给出参数,套到你的模型里就可以。注意看方差分析表下边的标注,里边会给出决定系数R^2,这个R^2通常比参数估计法里的大,也就是说,非线性回归的精度往往比参数估计法的大,模型拟合的好。(废话,要是非线性回归一点优势也没有,还有谁肯研究啊。)
上边只是简单介绍了一点非线性回归的方法。实际生活中,非线性回归比线性回归远远复杂的多,不是一句两句就能说清楚的,此外,还有一种很普遍的办法是通过数学公式把非线性方程转化成线性方程。这样就能大大降低方程的复杂性。在这里,给大家总结了几个常见的公式。使用步骤:
分析—回归——线性回归——多元线性回归分析,把因变量放入因变量列表中,之后多个自变量放入自变量列表中,选择变量筛选的方法(进入法、逐步法等),就可以了。
SPSS(Statistical Product and Service Solutions),“统计产品与服务解决方案”软件。最初软件全称为“社会科学统计软件包”(SolutionsStatistical Package for the Social Sciences),但是随着SPSS产品服务领域的扩大和服务深度的增加,SPSS公司已于2000年正式将英文全称更改为“统计产品与服务解决方案”,标志着SPSS的战略方向正在做出重大调整。为IBM公司推出的一系列用于统计学分析运算、数据挖掘、预测分析和决策支持任务的软件产品及相关服务的总称SPSS,有Windows和Mac OS X等版本。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)