正则化对增加参数值的幅度施加惩罚,以减少过度拟合。当训练模型(例如逻辑回归模型)时,您正在选择最适合数据的参数。这意味着将给定数据的模型对因变量的预测与实际因变量之间的误差最小化。
当您有很多参数(很多独立变量)但数据太多时,就会出现问题。在这种情况下,模型通常会根据您数据中的特质来调整参数值-
这意味着它几乎可以完美地适合您的数据。但是,由于这些特质不会出现在您看到的未来数据中,因此您的模型预测不佳。
为了解决这个问题,并尽可能减少错误,如上所述,您可以添加到最小化的内容中,还可以最小化惩罚较大参数值的函数。最常见的功能是λΣθ Ĵ
2,这是一些恒定λ倍平方参数值θ的总和Ĵ 2。λ越大,仅为了适应数据中的小扰动而调整参数的幅度的可能性就越小。但是,在您的情况下,您没有指定λ,而是指定C
= 1 /λ。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)