卷积神经网络卷积核大小对准确率的影响

卷积神经网络卷积核大小对准确率的影响,第1张

一般来说,卷积核越大,对于图像特征值获取的效果越好,但是对应地,需要训练的参数就越多,因此会应当到运算能力,进一步影响到图像识别的整体效率。与之对应,卷积核越小,图像识别过程中的精细程度就会有所提升,但是想要获取到同样水平的图像特征,只能依赖更多的计算层数。并且较小的卷积核意味着在计算中会存在更多的Rectified Linear Units层,在识别能力上也会因此更强。

输入:227 227 3
这个图像被96个大小规格为11 11 3(同样也是三通道了)的卷积核,进行特征提取。
1、针对一个卷积核:
1一个卷积核有多少个神经元?
一个感受野(11乘11乘3)即卷积核的大小,对应一个神经元,即一个卷积核包含的神经元的个数等于经过该卷积核后生成的特征图的大小(55乘55),此处用了96个卷积核所以神经元总数:55乘55乘96
2一个卷积核有多少个参数?
即卷积核的大小再加偏置(11乘11乘3+1),注意一个卷积核的所有神经元共享该组参数
3连接数=参数特征图大小
C1层(卷积层):是一个卷积层,由6个特征图Feature Map构成。特征图中每个神经元与55的邻域(滤波器)相连。
特征图大小:特征图的大小2828,这样能防止输入的连接掉到边界之外(32-5+1=28)。
feature map边长大小的具体计算参见:>由少到多的变化。
256维的输入直接经过一个3×3×256的卷积层,输出一个256维的featuremap,那么参数量为:256×3×3×256=589,824
256维的输入先经过一个1×1×64的卷积层,再经过一个3×3×64的卷积层,最后经过一个1×1×256的卷积层,输出256维,参数量为:256×1×1×64+64×3×3×64+64×1×1×256=69,632。足足把第一种 *** 作的参数量降低到九分之一。

>一个nn的卷积核有n^2个参数,对应于nn个权重和nn个偏差。每个参数都需要被训练,以最大程度的减少损失函数的值。卷积核的大小(n)是可以根据实际情况调整的,可以通过改变n的值来调整模型的复杂度,也可以改变模型的宽度和深度。

(1)单个独立卷积核的通道数=输入图像的通道数(输入图像决定);
(2)独立卷积核的个数=输出图像的通道数(用户决定)。

在描述卷积核时,“ 卷积核通道数 ”这个概念必须搞清楚,是指“ 单个独立卷积核的通道数 ”,还是指 独立卷积核的个数(输出通道数)
例:
假如输入图像的规模为 32×32×128 ,即输入通道数为128;
那么根据前面(1)可知单个卷积核的通道数也是128,即卷积核尺寸应该为: n×n×128 (n通常为3、5、7等)。
假如用256个这样的卷积核对输入进行卷积,则最后得到的输出图像尺寸为(根据前面(2)): (32-n+1)×(32-n+1)×256 ,即输出图像有256个通道(一个卷积核得到一个输出结果,也就是一个通道,相当于把原来只有128层的图像,扩展到了256层)。
可见,本次所有卷积核尺寸(或者说卷积核的总参数个数)是: n×n×128×256
需要注意的是, 很多时候在描述卷积核时,通常会忽略单个卷积核的通道数,而保留了卷积核个数 ,如上面的总卷积核简写为: n×n×256 ,省略了128,这么写是有道理的,因为这4个参数中128这个参数是由输入图像的通道数决定的,而其他三个参数则是由用户决定的。
因此在解读卷积核尺寸时,必须搞清楚,第三个参数是输入通道数还是卷积核个数。判断标准就是前面的(1)和(2)两点结论。

通道channel :通常jpg等彩色由R、G、B三个图层构成,每个图层实际上就是一个二维矩阵,也就是所谓的一个通道,因此一个彩色通常有3个通道,而一个黑白就只有一个通道。
tensorfllow中的“输入通道in_channels”:输入图像的通道数。
tensorfllow中的“输出通道out_channels”:输出图像的通道数。

最初输入的样本的 channels ,取决于类型,比如RGB;
卷积 *** 作完成后输出的 out_channels ,取决于卷积核的数量。此时的 out_channels 也会作为下一次卷积时的卷积核的 in_channels;
卷积核中的 in_channels ,就是上一次卷积的 out_channels ,如果是第一次做卷积,就是输入本的 channels 。

tfnnconv2d()是TensorFlow里面实现卷积的函数,其调用方式如下:

下图展示了对一张3通道jpeg进行两次连续卷积 *** 作的过程:

输出结果:

>

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/yw/12827659.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-28
下一篇 2023-05-28

发表评论

登录后才能评论

评论列表(0条)

保存