正则化线性回归的方差与偏差!

正则化线性回归的方差与偏差!,第1张

概述利用正则化线性回归模型来了解偏差方差的特征实例:首先根据数据建立线性回归模型,模型能够根据水库液位的变化来预测大坝的排水量,然后通过调整参数等方法来学习偏差和方差的一些特性。

利用正则化线性回归模型来了解偏差和方差的特征

实例:

首先根据数据建立线性回归模型,模型能够根据水库液位的变化来预测大坝的排水量,然后通过调整参数等方法来学习偏差和方差的一些特性。

1.概念

偏差:度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;

方差:度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响(模型的稳定性)。

2.构建正则化线性模型

(1)载入数据

打开数据集 ex5data1.mat ,数据集包含了以下内容:

名称 维度 X (12,1) y (12,1) Xtest (21,1) ytest (21,1) Xval (21,1) yval (21,1) 其中:

X,y 是 训练集 ,用来训练模型;

Xval,yval 是 交叉验证集 ,主要用来确定模型中的超参数,如正则化参数 lambda ;

Xtest,ytest 是 测试集 ,主要评估模型的泛化能力。

(2)将 X,y 可视化

横轴表示水位的变化,纵轴表示水流量,单纯的线性回归也能计算出模型,但那样做偏差特别大,拟合程度很差,即出现 欠拟合 。

Plot X and y

参考代码:def plotXY(self,x,y): plt.scatter(x,y,marker='x',color='r') plt.xlabel('Change in water level(x)') plt.ylabel('Water flowing out of the dam (y)') plt.show()

(3)计算正则化线性回归损失函数J

损失函数公式如下,注意正则化项是 从下标1 开始计算的,lambda就是正则化系数,它控制模型复杂度的"惩罚"力度。

Cost J

(4)计算正则化线性回归梯度GradIEnt

损失函数J对 theta0和theta1 的偏导数定义如下,即要计算的梯度公式。

GradIEnt

参考代码:def linearRegCostFunction(self,theta,lamda): m = x.shape[0] theta = theta.reshape((x.shape[1],1)) cost = np.sum((x.dot(theta)-y)**2)/(2*m) regular = lamda/(2*m)*np.sum(theta[1::]**2) J = cost + regular return Jdef linearRegGradIEnt(self,lamda): m = y.shape[0] theta = theta.reshape((x.shape[1],1)) grad = np.zeros((x.shape[1],1)) grad[0] = 1/m*(x[:,0:1].T.dot(x.dot(theta)-y)) grad[1::] = 1/m*(x[:,1::].T.dot(x.dot(theta)-y)) + lamda/m*theta[1::] return grad

(5)拟合线性回归

当我们根据上述公式计算损失函数和梯度得到正确的结果后,我们利用之前提到的 scipy.optimize 中的 minimize 函数来计算最优的 theta0 和 theta1 ,计算得到 theta 的结果后,将 lambda 的值设为 0 ,因为当前模型只有 theta1 和 theta2 两个值,模型很简单,没必要设置正则化项。

将得到的 theta 值同 X 相乘,得到预测的 y_predict ,将结果进行绘制,得到拟合的结果,如下图。

可以看出得到的结果并不好,在接下来的内容里,我们逐步讨论。

Fit X and y

参考代码:def plottrainingline(self,y): theta = self.trainlinearReg(x,0) plt.scatter(self.x,self.y,marker='+',color='r') plt.plot(self.x,x.dot(theta),'--',linewidth=2) plt.xlabel('Change in water level (x)') plt.ylabel('Water flowing out of the dam (y)') plt.legend(['Trained','Original']) plt.show()

3.方差和偏差

(1)绘制学习曲线

绘制 训练集和交叉验证集的误差 与 训练样本数量 之间的学习曲线, 注意: 训练集误差和交叉验证集误差都没有计算正则化项,后面我们单独讨论正则化系数对误差造成的影响。

观察下图,随着样本数量逐渐增加,训练集和交叉验证集之间的误差仍然是较大的,这就反应了模型的 高偏差问题 ,即 欠拟合 。

因为模型太简单了,不能很好的拟合我们的数据,接下来我们将训练模型修改,建立一个8次多项式。

Learning curve for linear Reg

参考代码:def learningCurve(self,xval,yval,lamda): m = x.shape[0] error_train = np.zeros((m,1)) error_val = np.zeros((m,1)) print("Training Examples   Train Error Cross ValIDation Error") for i in range(m): theta = self.trainlinearReg(x[:1+i,:],y[:1+i],lamda) error_train[i] = self.linearRegCostFunction(theta,x[:1+i,0) error_val[i] = self.linearRegCostFunction(theta,0) print("        %d          %f      %f"%(i,error_train[i],error_val[i])) return [error_train,error_val]def plotlinerRCurve(self): error_train,error_val = self.learningCurve(self.x_plus_one,self.xval_plus_one,self.yval,0) plt.xlim([0,13]) plt.ylim([0,150]) plt.plot([i for i in range(12)],error_train,'r') plt.plot([i for i in range(12)],error_val,'b') plt.Title('Learning curve for linear regression') plt.xlabel('Number of training examples') plt.ylabel('Error') plt.legend(['Train','Cross ValIDation']) plt.show()

(2)建立多项式回归模型

由于一次线性模型太简单,导致欠拟合,我们添加更多的"特征",做一个 八 次多项式。 具体最高项应该设置成几次这个问题,也是没有定式,只能说多尝试,找到较为合适的最高次数。

参考代码:

def polyFeatures(self,p): x_ploy = np.zeros((np.size(x),p),np.float32) # (12,8) m = np.size(x) # 12 for i in range(m): for j in range(p): x_ploy[i,j] = x[i]**(j+1) return x_ploy

(3)绘制多项式回归模型拟合曲线

根据上一部分得到的多项式,因为同样是解决一个线性回归的问题,所以之前的损失函数和梯度计算函数仍可使用。

接下来利用优化函数计算得到最优的 theta 值,绘制拟合曲线,当设置正则化系数 lambda=0 的时候,意味这对模型复杂度没有任何处理,得到下图。

可以看出,我们的模型训练的非常好,基本穿过了每一个点,训练误差肯定很小,但是在一些极值外,函数迅速的上升和下降,这就意味这我们设计的模型 过拟合 了,虽然对训练数据拟合很好,但是不具有很好的泛化能力,也意味着模型不稳定。

polynomial Reg Fit with lambda=0

观察下 lambda=0 的情况下,训练误差和交叉验证误差的曲线,非常明显,训练误差几乎为0,而交叉验证误差却很大,训练集和交叉验证集之间的空隙充分反应了模型的 高方差问题 。

polynomial Reg Learning curve with lambda=0

此时我们让正则化系数为1,再重复上面的试验,我们再来看下你和曲线和学习曲线的图形。

一目了然,多项式模型很好的拟合了数据,训练误差和交叉验证集误差曲线都随着样本数量的增加都 收敛于一个较小的值 ,因此我们认为当 lambda=1 时,得到的模型没有 高偏差和高方差的问题 ,实际上也是模型在方差和偏差之间进行了很好的 折中 。

polynomial Reg Fit with lambda=1

Learning curve with lambda=1

参考代码:def plotFit(self,mu,sigma,p): x = np.arange(np.min(x) - 15,np.max(x) + 25,0.05) x = x.reshape((-1,1)) x_poly = self.polyFeatures(x,p) x_poly = x_poly - mu x_poly = x_poly/sigma x_poly = np.hstack([np.ones((x_poly.shape[0],1)),x_poly]) plt.plot(x,x_poly.dot(theta),linewidth=2) plt.Title('polynomial Regression Fit (lambda=0.00)') plt.xlabel('Change in water level (x)') plt.ylabel('Water flowing out of the dam (y)') plt.show()

(4)利用交叉验证集选择lambda

通过上面的试验,我们可以知道,lambda明显的影响着多项式正则化回归的训练误差和交叉验证误差。 当lambda为0甚至很小的时候,模型可以很好的拟合训练集,不具备好的泛化能力,当lambda很大的时候,模型又不能很好的拟合数据,出现欠拟合问题 ,那么到底怎样选择一个lambda的值呢?

我们根据上面的实例,选择10个lambda的值,分别绘制每个lambda对应的训练误差和交叉验证集误差,

进群:960410445  即可获取数十套pdf!

lambda_vec = {0; 0:001; 0:003; 0:01; 0:03; 0:1; 0:3; 1; 3; 10}

绘制得到下图, 从图中我们可以看出最好的lambda值出现在 3 附近,此时测试误差值大约3.8599,结果已经相当不错了。

Find the best lambda

参考代码:def valIDationCurveForLamdas(self,lamda_vec): error_train = np.zeros((len(lamda_vec),1)) error_val = np.zeros((len(lamda_vec),1)) print("Lambda      Train Error ValIDation Error") for i in range(len(lamda_vec)): lamda = lamda_vec[i] theta = self.trainlinearReg(x,0) print("        %d          %f      %f" % (i,error_val]
总结

以上是内存溢出为你收集整理的正则化线性回归的方差与偏差!全部内容,希望文章能够帮你解决正则化线性回归的方差与偏差!所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1209205.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-04
下一篇 2022-06-04

发表评论

登录后才能评论

评论列表(0条)

保存