我们知道在CNN网络中,会有各种size的卷积层,比如常见的3x3,5x5等,卷积操作是卷积核在图像上滑动相乘求和的过程,起到对图像进行过滤特征提取的功能。但是我们也会遇见1x1的卷积层,比如在GoogleNet中的Inception模块,如下图:
我们看到上图中有4个1x1的卷积,那么他们起着什么作用呢?为什么要这样做呢?
设计思路:考虑到有些物体比较大,有些物体比较小,所以用不同size的卷积核进行特征提取。其实最简单的可以看做是全连接,它的计算方式跟全连接是一样的。
1x1卷积作用
- 增加非线性
1x1的卷积核的卷积过程相当于全链接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性,使得网络可以表达更加复杂的特征。
- 特征降维
通过控制卷积核的数量达到通道数大小的放缩。特征降维带来的好处是可以减少参数和减少计算量。
降维的优势
增加非线性好理解,通过控制卷积核的数量来达到通道数的缩放也好理解,那么怎么减少计算量和减少参数呢?我们从一个实例来看:假如前一层输入大小为28 x 28 x 192,输出大小为28 x 28 x 32,如下:
减少计算量:
不引入1x1卷积的卷积操作如下:
上图计算量为:
28 x 28 x 192 x 5 x 5 x 32 = 120,422,400次
引入1x1卷积的卷积操作:
引入1x1卷积后的计算量为:
28 x 28 x 192 x 1 x 1 x 16 28 x 28 x 16 x 5 x 5 x 32 = 12,443,648次
从上面计算可以看出,相同的输入,相同的输出,引入1x1卷积后的计算量大约
是不引入的1/10。
减少权重个数
Inception的初始版本就是没有加入1x1卷积的网络,如下图:
假如previous layer的大小为28x28x192,那么上面网络的权重个数为:
1 x 1 x 192 x 64 3 x 3 x 192 x 128 5 x 5 x 192 x 32 = 387072个
其输出的特征图大小为:
28 x 28 x 64 28 x 28 x 128 28 x 28 x 32 28 x 28 x 192 = 28 x 28 x 416
加入1x1卷积的Inception网络如下图,那么该网络的权重参数是多少呢?
如果previous layer的大小为28x28x192,那么上面网络的权重个数为:
1 x 1 x 192 x 64 (1 x 1 x 192 x 96 3 x 3 x 96 x 128) (1 x 1 x 192 x16 5 x 5 x 16 x 32) 1 x 1 x 192 x 32 = 163328个
可见加上1x1卷积后,权重个数从38.7万个左右降到16.3万个左右,同时增加了网络的非线性。
其输出的特征图大小为:
28 x 28 x 64 28 x 28 x 128 28 x 28 x 32 28 x 28 x 32 = 28 x 28 x 256
这样,1x1卷积的增加在增加网络非线性的同时,减少了网络的计算量和权重个数。你Get到了吗?