稀疏 词语名称: 稀疏 词语解释: 1亦作"稀疎"。 2不稠密。 3犹言冷落,疏远。
稀 : 稀 xī 事物中间距离远、空隙大,与“密”相对,稀疏。稀落(lu)。稀客。依稀。浓度小,含水分多,
疏 shū 去掉阻塞使通畅:疏导。疏通。疏浚。疏解(ji)。分散:疏散。仗义疏财。事物间距离大
一般情况下,稀疏矩阵指的是元素大部分是0的矩阵(有些资料定义非零元素不超过5%的矩阵,为稀疏矩阵), 矩阵的稀疏性可以用一个分数来量化,即矩阵中零元素的个数除以矩阵中元素的总数。存储稀疏矩阵时只描述其非零元素的值及所在位置, tensorflow的sparse_tensor类型还会存储稀疏矩阵的形状
存储稀疏矩阵时常用的有如下三种压缩格式:
这种存储格式比较简单易懂,每一个元素需要用一个三元组来表示,分别是(行号,列号,数值),对应上图右边的一列。这种方式简单,但是记录单信息多(行列),每个三元组自己可以定位,因此空间不是最优。
这是经常用的一种,我们会经常在一些标准的线性代数库或者数值运算库中看到此方式存储;CSR是比较标准的一种,也需要三类数据来表达:数值,列号,以及行偏移。CSR不是三元组,而是整体的编码方式。数值和列号与COO一致,表示一个元素以及其列号,行偏移表示某一行的第一个元素在values里面的起始偏移位置。如上图中,第一行的第一个元素1在values中是第0个, 所以是0偏移,第二行元素第一个元素2是2偏移,第三行第一个元素5是4偏移,第4行第一个元素6是7偏移。在行偏移的最后补上矩阵总的元素个数,本例中一共是9个非零元素。
CSC是和CSR相对应的一种方式,即按列压缩的意思。
以上图中矩阵为例:
Column Offsets:[0 2 5 7 9]
Row Indices:[0 2 0 1 3 1 2 2 3]
Values: [1 5 7 2 6 8 3 9 4]
Values中的元素要按列写, 跟COO和CSR不同, 指定了Values的元素顺序之后就可以写Row Indices了, 然后根据每一列第一个元素在Values中的位置确定偏移量Column Offsets 如第一列第一个元素1是0偏移, 第二列第一个元素7是2偏移, 第三列第一个元素8是5偏移, 第四列第一个元素9是7偏移, 共9个元素
信号稀疏表示(稀疏表达也可以叫为稀疏表示)是过去近20年来信号处理界一个非常引人关注的研究领域,众多研究论文和专题研讨会表明了该领域的蓬勃发展。信号稀疏表示的目的就是在给定的超完备字典中用尽可能少的原子来表示信号,可以获得信号更为简洁的表示方式,从而使我们更容易地获取信号中所蕴含的信息,更方便进一步对信号进行加工处理,如压缩、编码等 。
扩展资料:
应用:
1,压缩感知
为了有效重构原信号,传统方式下需要基于奈奎斯特采样定理实现对信号的采样。近年来,随着稀疏表示的兴起为重构原信号提出了一种新的理论-压缩感知。
2,目标跟踪
近年来,稀疏表示在目标跟踪领域也得到的广泛应用。针对红外图像序列中目标与背景对比度低、灰度特征易受噪声影响等问题,提出了一种基于稀疏表示模型的红外目标跟踪算法。提出了一个新的基于稀疏表示的目标跟踪方法,通过L1 范数最小化求解,实验结果表明,该方法比现有的基于 L1 范数最小化的跟踪方法性能更稳定、计算效率更高。
为了有效解决跟踪过程中的目标遮挡问题,提出了一种基于局部稀疏表示模型的跟踪方法。实验结果表明,该方法比各种流行跟踪方法稳定可靠且具有良好的抗遮挡性,并对海上红外目标跟踪取得良好效果。
参考资料:
出自AndrewNg教授的UnsupervisedFeatureLearningandDeepLearning教程。
稀疏自编码器(SparseAutoencoder)可以自动从无标注数据中学习特征,可以给出比原始数据更好的特征描述。在实际运用时可以用稀疏编码器发现的特征取代原始数据,这样往往能带来更好的结果。本文将给出稀疏自编码器的算法描述,并演示说明稀疏编码器自动提取边缘特征。
稀疏性可以被简单地解释如下。如果当神经元的输出接近于1的时候我们认为它被激活,而输出接近于0的时候认为它被抑制,那么使得神经元大部分的时间都是被抑制的限制则被称作稀疏性限制。这里我们假设的神经元的激活函数是sigmoid函数。
不是。稀疏自编码器(SparseAutoencoder)可以自动从无标注数据中学习特征,可以给出比原始数据更好的特征描述,和深度学习不是同一个方向,深度学习是指多层的人工神经网络和训练它的方法。
以上就是关于“稀疏”的意思全部的内容,包括:“稀疏”的意思、稀疏矩阵及其压缩格式、稀疏表达是什么意思等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)