L1范数是向量中各个元素绝对值之和,L1范数可以进行特征选择,即让特征的系数变为0。
L2范数是向量各元素的正兄平方和然后求平方根,L2范数可以防止过拟合,提升模型的泛化能力,有助于处理 condition number不好下的矩阵(数据变化很小矩阵求解后结果变化很大)。
例如2维空间中,向量(3,4)的举迹袭长度是5,那么5就是这个向量的一个范数的值,更确切的说,是欧式范数或者L2范数的值。
扩展资料:
注意事项:
1、当P=0时,也就是L0范数,由此可知L0范数并不是一个真州腊正的范数,它主要被用来度量向量中非零元素的个数。
2、在实际应用中,由于L0范数本身不容易有一个好的数学表示形式,给出上面问题的形式化表示是一个很难的问题,故被人认为是一个NP难问题。所以在实际情况中,L0的最优问题会被放宽到L1或L2下的最优化。
3、由于L1范数的天然性质,对L1优化的解是一个稀疏解,因此L1范数也被叫做稀疏规则算子。通过L1可以实现特征的稀疏,去掉一些没有信息的特征,例如在对用户的电影爱好做分类的时候,用户有100个特征,可能只有十几个特征是对分类有用的,大部分特征如身高体重等可能都是无用的,利用L1范数就可以过滤掉。
参考资料来源:百度百科-L1范数正则化
参考资料来源:百度百科-范数
用0范数或1范数解决cs重构归属一个扰并吵数学问题,犹如给定你一个公式,利用这个公式或者说原理去做出很多的算法,cs重构本归属与对0范数的求解问题上的。但0范数属于数学上一个NP_hard问题,是无法解决的,所以不能直接用求0范数的理论去做算法,从而提出一系列基于求0范数最小的贪婪类算法。如MP,OMP等算法。,这类算法中,最为基础的算是MP算法了。贪婪算法的速度较快,但是重构效果相对较差,需要的测量数也较多,不能高效地压缩信号,并蔽指且对测量矩阵的要求更高。但总的来说,应用范围广。
数学家同时发现,求解L1范数也可以逼近与0范数的效果,即把NP_hard问题转化为线性规划问题。所以现在有很多用求L1范数原理而创造了各类算法,最典型的是BP(基追踪)算法和梯度投影稀疏重构算法。这种算法重构效果很好,但是运算量大,复杂,应用于实际上可能不大。至少得改进缓侍其算法。
还有一大类算法,我不关注,不说了。
具体那些算法怎么实现,自己去网上下程序仿真一下吧。。。。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)