欠拟合产生的原因

欠拟合产生的原因,第1张

拟合产生的原因如下

出现欠拟合的原因是模型尚未学习到数据的真实结构。因此欠拟合可以简单理解为:模型对训练数据的信息提取不充分,并没有学习到数据背后的规律,导致模型应用在测试集上时,无法做出正确的判断。

欠拟合underfiting / high bias,就是指模型不能在训练集上获得足够低的误差,在训练集、验证集以及测试集上均表现不佳的情况。用偏差和方差来解释就是,欠拟合的时候为高偏差滚中(偏差描述的是模型的期望输出与真实输出之间的差异)。

欠拟合,模型拟合程度不高,数据距离拟合曲线较远,不能够很好地拟合数据。

二、欠拟合解决办法

1、做特征工程,添加其他特征项,有时候欠拟合出现的原因是:轿备弊特征项不够,没有足够的信息支持模型做判断。这时候我们可以通过添加其他特征项来解决。例如,“组合”、“泛化”、“相关性”、“上下文特征”、“平台特征”等等,都能够作为特征添加的首选项。

2、添加多项式特征,这种做法在机器学习算法里面很常用,举个例子,比如将线性模型通过添加二次项或者三次项使模型泛化能力更强。

3、减少正则化参数,正则化的目标是:防止过拟合的,现在模型是欠拟合,就需要减少正则化参数。

4、增加模型复杂度。模型如果太简单,就不能应对复杂的任务。我们可以通过使用更加复杂的模型,来减小正则化系数。比如可以使用核函数,集成学习方法(集成学闭族习方法boosting(如GBDT)能有效解决high bias),深度学习等。

在模型评估与调整的过程中,往往会遇到“过拟合”和欠拟合现象,如何有效地识别“过拟合”和“欠拟合”现象,并有针对性地调数耐渗整模型,是不断改进机器学习模型的关键。

给定一个假设空间F,一个假设f 属于F,如果存在其他的假设f′ 也属于F, 使得在训练集上f 的损失比f′ 小,但在整个样本空间上f′ 比f 的损失小,那么就说假设f 过度拟合训练数据[Mitchell, 1997]。

根据大数定理可知,当训练集大小|D| 趋向于无穷大时, 经验风险就趋向于期望风险 。然而通常情况下,我们无法获取无限的训练样本,薯脊并且训练样本往往是真实数据的一个很小的子集或者包含一定的噪声数据,不能很好地反映全部数据的真实分布。经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在未知数据上错误率很高。这就是所谓的过拟合(Overfitting)。

过拟合问题往往是由于 训练数据少和噪声以及模型能力强 等原因造成的。

为了解决过拟合问题,一般在经验风险最小化的基础上再引入参数的正则化

(Regularization),来限制模型能力,使其不要过度地最小化经验风险。这种

准则就是 结构风险最小化(Structure Risk Minimization,SRM)准则

其中||θ||是ℓ2 范数的正则化项,用来减少参数空间,避免过拟合;λ用来控制正则

化的强度。正则化项也可以使用其它函数,比如ℓ1 范数。ℓ1 范数的引入通常会使得参数有一定稀疏性,因此在很多算法中也经常使用。。在贝叶斯学习的角度来讲,正则化是假设了参数的先验分布,不完全依赖训练数据。

除了正则化,还可以从以下几个方面降低过拟合风险。

和过拟合相反的一个概念是欠拟合(Underfitting),即模型不能很好地拟合

训练数据,在训练集的错误率比较高。欠拟合一般是由于模型能力不足造成的。

下图给出了欠拟合和过拟合的示例。

当出现欠拟合现象时,可以尝试冲以下几个方面入,降低欠拟合风险。

总之,机器学习中的学习准则并不仅仅是拟合训练集上的数据,同时也要使得 泛化错误 最低。给定一个训练集,机器学习的目标是从假设空间中找到一个泛化错误较低的“理想”模型,以便更好地对未知的样本进行预测,特别是不在训练集中出现的样本。因此,机器学习可以看作是一个从有限、高维、有噪亩薯声的数据上得到更一般性规律的泛化问题。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/bake/11979168.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-20
下一篇 2023-05-20

发表评论

登录后才能评论

评论列表(0条)

保存