论文解读:细粒度分类---SCDA、RA-CNN

论文解读:细粒度分类---SCDA、RA-CNN,第1张

我们在路边看到萌犬可爱至极,然后却不知道这个是哪种狗;看见路边的一个野花却不知道叫什么名字,吃着一种瓜,却不知道是甜瓜还是香瓜傻傻分不清……

细粒度图像分析任务相对通用图像任务的区别和难点在于其图像所属类别的粒度更为精细。

细粒度分类目前的应用场景很广泛,现在的网络大多分为有监督的和半监督的。

有监督的做法基于强监督信息的细粒度图像分类模型,是在模型训练时,为了获得更好的分类精度,除了图像的类别标签外,还使用了物体标注框(bounding box)和部位标注点(part annotation)等额外的人工标注信息。

基于弱监督信息的细粒度图像分类模型,基于强监督信息的分类模型虽然取得了较满意的分类精度,但由于标注信息的获取代价十分昂贵,在一定程度上也局限了这类算法的实际应用。因此,目前细粒度图像分类的一个明显趋势是,希望在模型训练时仅使用图像级别标注信息,而不再使用额外的part annotation信息时,也能取得与强监督分类模型可比的分类精度。

了解了大体的做法,我将从一些paper入手,讲解目前细粒度图像分析的具体实现。

是基于深度学习的细粒度图像检索方法。在SCDA中,细粒度图像作为输入送入Pre-Trained CNN模型得到卷积特征/全连接特征,如下图所示。

区别于传统图像检索的深度学习方法,针对细粒度图像检索问题,作者发现卷积特征优于全连接层特征,同时创新性的提出要对卷积描述子进行选择。

不过SCDA与之前提到的Mask-CNN的不同点在于,在图像检索问题中,不仅没有精细的Part Annotation,就连图像级别标记都无从获取。这就要求算法在无监督条件下依然可以完成物体的定位,根据定位结果进行卷积特征描述子的选择。对保留下来的深度特征,分别做以平均和最大池化 *** 作,之后级联组成最终的图像表示。

很明显,在SCDA中,最重要的就是如何在无监督条件下对物体进行定位。
通过观察得到的卷积层特征,如下图所示,可以发现明显的"分布式表示"特性。

对两种不同鸟类/狗,同一层卷积层的最强响应也差异很大。如此一来,单独选择一层卷积层特征来指导无监督物体定位并不现实,同时全部卷积层特征都拿来帮助定位也不合理。例如,对于第二张鸟的图像来说,第108层卷积层较强响应竟然是一些背景的噪声。

基于这样的观察,作者提出将卷积特征(HxWxD)在深度方向做加和,之后可以获得Aggregation Map(HxWx1)。

在这张二维图中,可以计算出所有HxW个元素的均值,而此均值m便是该图物体定位的关键:Aggregation Map中大于m的元素位置的卷积特征需保留;小于的则丢弃。

这一做法的一个直观解释是,细粒度物体出现的位置在卷积特征张量的多数通道都有响应,而将卷积特征在深度方向加和后,可以将这些物体位置的响应累积--有点"众人拾柴火焰高"的意味。

而均值则作为一把"尺子",将"不达标"的响应处标记为噪声,将"达标"的位置标为物体所在。而这些被保留下来的位置,也就对应了应保留卷积特征描述子的位置。

实验中,在细粒度图像检索中,SCDA同样获得了最好结果;同时SCDA在传统图像检索任务中,也可取得同目前传统图像检索任务最好方法相差无几(甚至优于)的结果,如下图所示。

RA-CNN算法不需要对数据做类似bounding box的标注就能取得和采用类似bounding box标注的算法效果。在网络结构设计上主要包含3个scale子网络,每个scale子网络的网络结构都是一样的,只是网络参数不一样,在每个scale子网络中包含两种类型的网络:分类网络和APN网络。

数据流是这样的:输入图像通过分类网络提取特征并进行分类,然后attention proposal network(APN)网络基于提取到的特征进行训练得到attention区域信息,再将attention区域crop出来并放大,再作为第二个scale网络的输入,这样重复进行3次就能得到3个scale网络的输出结果,通过融合不同scale网络的结果能达到更好的效果。

针对分类网络和APN网络设计两个loss,通过固定一个网络的参数训练另一个网络的参数来达到交替训练的目的

如下图所示,网络能够逐渐定位attention area,然后再将此区域放大,继续作为第二个scale网络的输入。

网络热梗。背带裤指裤腰上装有挎肩背带的裤子。通过查询可知,ra断网背带裤出自主播英雄联盟水晶哥解说,即便有了这句话。两个战队,在游戏中其中一个战队网络断开,被水晶哥说为背带裤偷网,指的是EDG把网络给偷走了,成为一个网络热梗。

伏安法测量电阻的原理是Rx=U/I
该方法要求U和I分别是待测电阻Rx两端的电压和电流
但是由于实际使用的测量表不是理想的,就会导致误差。
内接法是把电流表和Rx串联后,并联电压表
此时,电流表示数I就是流过Rx的电流Ix,即I=Ix,没有误差
电压表实处U是电流表+Rx串联两端的电压,即Ra+Rx两端的电压,即U=Ua+Ux,在这里产生了误差。
因此用公式进行计算Rx=U/I时,实际数值得到的是Rx'=(Ua+Ux)/Ix=Ra+Rx
计算值Rx'与真实值Rx之间的绝对误差为Ra,相对误差为Ra/Rx

其中一个电阻变大,总电阻变大,其中一个电阻变小,总电阻变小。

韦老师

证明如下:1先是串联的

右边任一电阻变大,左边总电阻变大;

2,再看并联的

右边任一电阻变大,电阻在分母,相加数值变小,左边数值也要变小,所以总电阻要变大。

这二个是粗糙度测定中比较常用的指标。

Ra定义:轮廓算术平均偏差:在取样长度内,轮廓偏距绝对值的算术平均值。

Ry定义:轮廓最大高度:在取样长度内,轮廓峰顶线和轮廓谷底线之间的距离。

以下图工件表面的轮廓线的描述,来说明这二个参数的计算差别。

Ra=((Yp1+Yp2+Ypn)+(lYv1l+lYv2+lYvnl))/2n

上图中n=5,计算结果就是偏离中间值的量。

而Ry,就是Yp1-5中的最大值和Yv5中最大值的绝对值之和,图中就是Ry=Yp2+lYv5l

Ra值越小,说明工件表面微观越平整,其对于同种材料的零件来说,走合期磨损造成零件尺寸变动也会小很多。当然光滑也代表摩擦力小。

Ry值太大,其实是种隐患,零件疲劳强度可能就会很差。断点往往发生在最大深度部分。

表面粗糙度有Ra,Rz,Ry 之分,据GB 3505摘录:
表面粗糙度参数及其数值常用的3个分别是:
轮廓算数平均偏差(Ra)--arithmetical mean deviation of the profile;
微观不平度十点高度(Rz)--the point height of irregularities;
轮廓最大高度(Ry)--maximum height of the profile。
Ra:在取样长度L内轮廓偏距绝对值的算术平均值。
Rz:在取样长度内5个最大的轮廓峰高的平均值与5个最大的轮廓谷深的平均值之和。
Ry:在取样长度L内轮廓峰顶线和轮廓谷底线之间的距离。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/dianzi/13296223.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-10
下一篇 2023-07-10

发表评论

登录后才能评论

评论列表(0条)

保存