为什么要使用填充(padding)
如图,对6x6的原图像使用3x3的卷积核进行卷积操作后得到的图像是一个4x4的图像(6-3+1=4),也就是说每次进行卷积后,原始图像都会变小失真,所以没有办法设计层数足够多的深度神经网络,除此之外还有另一个重要的原因是,原始图像中的边缘像素永远都不会位于卷积核的中心,只有原始图像的4x4的像素会位于中心,这样会使得边缘像素对网络的影响小于位于中心点的像素的影响,不利于抽取特征。
所以为了解决这个问题,一般堆在原始图像的周围填充一圈像素,如图:
通道(channel)
一般的图像都是三通道的,分别为R、G、B,所以卷积核也应该为三个通道,通过卷积核作用后生成的图像也会有三个,如图:
得到三个图像后,然后把这三个图像通过矩阵相加的计算最后得到一个“合成”图像,如图:
最后,将这个图像与一个偏置项(bias)相加后就会得到一个最终的结果,偏置项不影响结果的矩阵形状只影响矩阵的值,如图:
总结一下:
如果对于一个三通道即:32x32x3的图像,使用一个:5x5x3的卷积核,最终会得到一个:28x28x1的特征图,如图:
如果使用两个:5x5x3的卷积核,最终会得到两个:28x28x1的特征图,即:28x28x2,如图:
如果使用六个:5x5x3的卷积核,最终会得到六个:28x28x1的特征图,即:28x28x6,如图:
- 卷积过程中,输入层有多少个通道,卷积核就有多少个通道。
- 但是卷积核的数量任意的,卷积核的数量决定了卷积后特征图的数量。