什么是L1 范数

什么是L1 范数,第1张

L1范数是向量中各个元素绝对值之和,L1范数可以进行特征选择,即让特征的系数变为0。

L2范数是向量各元素的正兄平方和然后求平方根,L2范数可以防止过拟合,提升模型的泛化能力,有助于处理 condition number不好下的矩阵(数据变化很小矩阵求解后结果变化很大)。

例如2维空间中,向量(3,4)的举迹袭长度是5,那么5就是这个向量的一个范数的值,更确切的说,是欧式范数或者L2范数的值。

扩展资料:

注意事项:

1、当P=0时,也就是L0范数,由此可知L0范数并不是一个真州腊正的范数,它主要被用来度量向量中非零元素的个数。

2、在实际应用中,由于L0范数本身不容易有一个好的数学表示形式,给出上面问题的形式化表示是一个很难的问题,故被人认为是一个NP难问题。所以在实际情况中,L0的最优问题会被放宽到L1或L2下的最优化。

3、由于L1范数的天然性质,对L1优化的解是一个稀疏解,因此L1范数也被叫做稀疏规则算子。通过L1可以实现特征的稀疏,去掉一些没有信息的特征,例如在对用户的电影爱好做分类的时候,用户有100个特征,可能只有十几个特征是对分类有用的,大部分特征如身高体重等可能都是无用的,利用L1范数就可以过滤掉。

参考资料来源:百度百科-L1范数正则化

参考资料来源:百度百科-范数

用0范数或1范数解决cs重构归属一个扰并吵数学问题,犹如给定你一个公式,利用这个公式或者说原理去做出很多的算法,cs重构本归属与对0范数的求解问题上的。

但0范数属于数学上一个NP_hard问题,是无法解决的,所以不能直接用求0范数的理论去做算法,从而提出一系列基于求0范数最小的贪婪类算法。如MP,OMP等算法。,这类算法中,最为基础的算是MP算法了。贪婪算法的速度较快,但是重构效果相对较差,需要的测量数也较多,不能高效地压缩信号,并蔽指且对测量矩阵的要求更高。但总的来说,应用范围广。

数学家同时发现,求解L1范数也可以逼近与0范数的效果,即把NP_hard问题转化为线性规划问题。所以现在有很多用求L1范数原理而创造了各类算法,最典型的是BP(基追踪)算法和梯度投影稀疏重构算法。这种算法重构效果很好,但是运算量大,复杂,应用于实际上可能不大。至少得改进缓侍其算法。

还有一大类算法,我不关注,不说了。

具体那些算法怎么实现,自己去网上下程序仿真一下吧。。。。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/12552151.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-26
下一篇 2023-05-26

发表评论

登录后才能评论

评论列表(0条)

保存