什么是卷积?
如图:
详细见卷积介绍。
1x1的卷积如何实现模型压缩
对于channel为1的图像,没有作用,对于大于1的图像就凸显作用了。
举个例子,如图,输入图像是28x28x192,输出是28x28x32。
如果卷积核为5x5x32时候,参数量是:(5x5x32 1)x 192 = 153792。
中间加入一层1x1的卷积,降低输入的channel,再使用同样卷积核,参数量为:
(1x1x16 1)x192 (5x5x32 1)x16 = 16080,降低为原来:十分之一。
因此这1x1的卷积核也被称为瓶颈层(bottleneck layer)。
性能?
1x1的卷积和被广泛应用,合理的构建bottleneck layer,可以显著减少参数,加速训练,且不降低网络性能,具体见吴恩达课程,youtobe,网易云课程。
Reference
https://www.quora.com/How-do-you-implement-1x1-convolutions-in-CNNs-and-what-is-the-advantage-of-doing-so