Pytorch-经典卷积网络介绍(上)

2019-12-04 11:48:34 浏览数 (1)

本节介绍一些经典的卷积神经网络。

在近几年,计算机视觉学习发生了翻天覆地的变化,

y轴是错误率。由图看出在较早期的拘役2⁓4层神经网络结构的shallow错误率高达25.8%和28.2%。而后在alexnet出现后,一下子将错误率降到了16.4%、而后具有19层结构的VGG网络和22层的GoogleNet进一步将错误率降到了7.3%和6.7%。而后发现的ResNet更是将错误率降到了3.57%。

下面我们将依次介绍各个版本的卷积神经网络。

首先介绍LeNet-5.

最开始LeNet-5用于手写数字的识别,由上图的过程可注意到经过了卷积层、隔行采样、卷积层、隔行采样、全连接层、全连接层、高斯连接层。

在当时LeNet-5即将数字识别的正确率提高到了99.2%,一经推出就;垄断了当时美国50%的证券市场。

在此基础上发展起了AlexNet。

AlexNet共计8层结构,比当时普遍存在的3至4层神经网络结构更深。

当时碍于硬件限制,是在2块3GB内存的GTX 580显卡上运行。5个卷积层更有利于提取特征结构。当时新颖的引入了Max pooling、ReLU激活函数和Dropout。

0 人点赞