04.卷积神经网络 W1.卷积神经网络

2021-02-19 15:02:27 浏览数 (1)

文章目录

    • 1. 计算机视觉
    • 2. 边缘检测示例
    • 3. 更多边缘检测
    • 4. Padding
    • 5. 卷积步长
    • 6. 三维卷积
    • 7. 单层卷积网络
    • 8. 简单卷积网络示例
    • 9. 池化层
    • 10. 卷积神经网络示例
    • 11. 为什么使用卷积?
    • 作业

参考:

吴恩达视频课

深度学习笔记

1. 计算机视觉

举例:图片猫?识别,目标检测(无人驾驶),图像风格转换(比如转成素描)等等

面临的挑战:

  • 数据的输入可能会非常大
  • 一张1000×1000的图片,特征向量的维度达到了1000×1000×3(RGB,3通道) = 300万
  • 在第一隐藏层中,你也许会有1000个隐藏单元,使用标准的全连接网络,这个矩阵的大小将会是1000×300万,矩阵会有30亿个参数
  • 在参数如此大量的情况下,难以获得足够的数据防止神经网络发生过拟合,处理30亿参数的神经网络,巨大的内存需求也受不了

你希望模型也能处理大图。为此,你需要进行卷积计算,下节将用边缘检测的例子来说明卷积的含义

2. 边缘检测示例

例如 6x6 的单通道灰度图像,检测垂直边缘,构造一个矩阵 ⎣⎡​111​000​−1−1−1​⎦⎤​ (过滤器 / 核),进行卷积运算*(convolve)

代码语言:javascript复制
import numpy as np
image = np.array([[3,0,1,2,7,4],[1,5,8,9,3,1],[2,7,2,5,1,3],[0,1,3,1,7,8],[4,2,1,6,2,8],[2,4,5,2,3,9]])
print(image)
print('-------')
filter_ = np.array([[1,0,-1],[1,0,-1],[1,0,-1]])
print(filter_)
print('-------')
from scipy import signal
convolution = -signal.convolve2d(image, filter_, boundary='fill',mode='valid')
print(convolution)
代码语言:javascript复制
[[3 0 1 2 7 4]
 [1 5 8 9 3 1]
 [2 7 2 5 1 3]
 [0 1 3 1 7 8]
 [4 2 1 6 2 8]
 [2 4 5 2 3 9]]
-------
[[ 1  0 -1]
 [ 1  0 -1]
 [ 1  0 -1]]
-------
[[ -5  -4   0   8]
 [-10  -2   2   3]
 [  0  -2  -4  -7]
 [ -3  -2  -3 -16]]

为什么可以检测边缘?

代码语言:javascript复制
image = np.array([[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0],[10,10,10,0,0,0]])
filter_ = np.array([[1,0,-1],[1,0,-1],[1,0,-1]])
print(-signal.convolve2d(image, filter_, boundary='fill',mode='valid'))
代码语言:javascript复制
[[ 0 30 30  0]
 [ 0 30 30  0]
 [ 0 30 30  0]
 [ 0 30 30  0]]

3. 更多边缘检测

可以检测明暗变化方向

竖直,水平的过滤器

把这9个数字当成参数,通过反向传播学习,边缘捕捉能力会大大增强(可以检查任意角度)

4. Padding

6. 三维卷积

输出是一个二维的,每个格子里是对应着 27个元素求和

如果希望对不同的通道进行检测边缘,对 filter 的相应层设置不同的参数就可以了

想要多个过滤器怎么办?(竖直的、水平的,各种角度的)

7. 单层卷积网络

参数的个数跟图片大小无关,跟过滤器相关,假如有10个过滤器,上面每个过滤器有 27 个参数,加上 偏置 b,28个再乘以10,共计280个参数

即使图片很大,参数却很少,这就是卷积神经网络的一个特征,叫作“避免过拟合”。

8. 简单卷积网络示例

除了 卷积层(convolution),还有 池化层(pooling),全连接层(fully connected)

9. 池化层

除了卷积层,卷积网络也经常使用池化层缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性

Max 运算的实际作用:

  • 如果在过滤器中提取到某个特征,那么保留其最大值
  • 如果没有提取到这个特征,可能在右上象限中不存在这个特征,那么其中的最大值也还是很小

池化,它有一组超参数 f , s f, s f,s,但没有参数需要学习,不需要梯度下降更新

最大池化比平均池化更常用

常用的参数值为 f=2 or 3,s=2

最大池化时,很少用到 padding( p=0)

输入输出通道数一样

最大池化只是计算神经网络某一层的静态属性,没有需要学习的参数

10. 卷积神经网络示例

尽量不要自己设置超参数,而是查看文献中别人采用了哪些超参数,选一个在别人任务中效果很好的架构,它也有可能适用于你的应用程序

11. 为什么使用卷积?

和只用全连接层相比,卷积层 的两个主要优势在于参数共享稀疏连接

  • 全连接层的参数巨大,卷积层需要的参数较少

原因:

  1. 参数共享,特征检测如果适用于图片的某个区域,那么它也可能适用于图片的其他区域
  2. 使用稀疏连接,一个输出仅依赖少部分的输入

神经网络可以通过这两种机制减少参数,以便我们用更小的训练集来训练它,从而预防过度拟合

作业

作业:手动/TensorFlow 实现卷积神经网络

0 人点赞