Rethinking ImageNet Pre-training

2020-08-13 11:02:28 浏览数 (1)

❝【GiantPandaCV导语】何凯明这篇2018年的论文主要给出了以下结论,「为了达到相同的性能,从头开始训练的模型需要更多的迭代次数」「在没有架构更改情况下,可以对目标任务从头开始训练」「只有在极少图片数目下,从头开始训练的模型性能才会出现明显下降」「ImageNet 预训练 加快模型收敛」「ImageNet 预训练不能缓解过拟合现象」「当目标任务对空间位置更敏感时,ImageNet pretrain所起到的作用会比较小」 。总的来说,作者要告诉我们CV中预训练不是必要的,你们收敛不了可以用group normalization大法。。论文链接:https://arxiv.org/abs/1811.08883。

1. 前言

这篇文章是何恺明组做的一个偏实验的工作,主要是探究ImageNet预训练的模型,在迁移到其他任务比如目标检测,分割等会不会比从头训练模型的要更好。可以总结一下就是

  1. 在数据集充分的条件下,各个任务里,「从头训练的效果并不比在ImageNet预训练过的要差」
  2. 从头训练的模型「需要更多的迭代次数」,才能追上预训练模型Finetune的结果
  3. ImageNet预训练的作用更多的是「加速模型收敛」,但不意味最后模型表现的好
  4. 「迁移数据量极少」时,ImageNet预训练过的模型表现的要比从头训练的模型要好很多

2. 摘要

如今各个任务上,使用ImageNet pretrain的骨干网络进行迁移学习已经是很常见的方法,但不见得用了pretrain的模型就在其他任务上表现的更好。通过我们大量的实验,我们得出了如下的结论

  1. ImageNet预训练加快收敛速度,「特别是在训练初期阶段」。但是从头训练的模型可以通过更多的迭代次数追上来
  2. ImageNet预训练「不能给模型带来正则化的效果」, 当迁移任务的数据量下降很多时,比如COCO的10%数据,我们需要重新调整原有的超参数。然而从头训练的模型在任何数据量情况下都可以以原始的超参数进行训练。
  3. 当目标任务对空间更敏感时,ImageNet的预训练没有任何好处

3. 实验方法

3.1 正则化手段

作者首先介绍了Normalization对训练阶段是非常有用的。本次实验只观察BatchNormalization, GroupNormalization, SyncBN(用于多卡)这几种方法

3.2 收敛

使用了ImageNet预训练的模型进行Finetune,和从零开始训练的模型。所使用的数据是不一样的。为了保证实验更公平,作者从图片数量,实例数量,像素量来做了个比较。

将网络训练到收敛需要的图片数,实例数,像素个数

ImageNet预训练100Epoch然后finetune 24Epoch的像素数据量级,十分接近于从头训练72个Epoch coco数据集的。这告诉我们imagenet pretrain 加 coco数据集上进行finetune,和从头在coco数据集上训练。两种方式的数据量你不好拿图片数量来衡量,因为都不是一类任务,所以这里换了另外一种计量方式来比较数据的多少,比如图片张数,像素总数和实例数量。

4 实验设置

4.1 整体结构

我们选用了以Resnet和Resnext FPN为骨干网络的Mask R-CNN模型。归一化采用SyncBN和GN

4.2 学习率调整

原始预训练中,Mask RCNN训练90k迭代称为1个schedule,再比如180k称为2个schedule。以此类推,我们再最后60k和20k的iter时,减少十倍学习率。「我们发现在第一个相对较大的学习率训练更长的时间,模型效果更好,在小学习率训练时间过长更容易导致模型过拟合」

4.3 超参数设置

使用Warm-up让初始率为0.02, weightdecay=0.0001。使用Momentum优化器,每个GPU的mini batch为2张图片

5. 实验结果与分析

5.1 从头训练模型

让我们惊讶的是,从头训练的模型最终准确率都能追上pretrain finetuned模型。

5.1.1 比较GN和SyncBN

使用GN的训练可视化曲线

使用SyncBN的训练可视化曲线

这两个图分别是GN和SyncBN的结果。这两个图出现的突然提升,就是我们不同schedule下的学习率策略,在不同的iter上调低了10倍学习率的结果。

从中我们可以总结出以下结论

  1. 在更少的迭代次数上,ImagePretrain的收敛十分迅速,且效果也不差。而对于从0开始训练的模型,则需要更多的迭代学习
  2. 在更多的迭代次数上,从0训练的模型可以追上pretrain finetune的模型 在COCO数据集上,ImageNet的作用更多的是加速收敛。

5.1.2 多重测量指标

论文在目标框的AP值和Mask的AP值这两种指标上,又进行了测试。可以看到从头训练的模型仍能追上Pretrain Finetune的模型。

以ResNet50为BaseLine

以ResNet101为BaseLine

另外这里还使用其他手段对baseline做了增强,但可以看到基本满足上面说的从头训练的模型仍能追上Pretrain Finetune的模型这个结论。

5.1.2.1 训练时图像增广

众所周知,图像增广能从数据多样性上增强模型性能,其代价是更多的迭代次数才能收敛。在这个情况下,两个模型都取得了性能上的提升,而从头训练的模型效果更好

5.1.2.2 Cascade R-CNN

Cascade增加了两个额外的阶段,针对不同的IOU阈值进行检测。这将有助于检测的准确性。从实验数据也能看到,从头训练的模型效果更好一点

5.1.2.3 test-time augumentation

这里是指对测试集的图片,做了不同的增广。将不同增广后的图片送入模型,然后取个平均值,作为一种正则化手段。结合了三个方法的模型性能提升尤为明显

5.1.3 更大的模型

我们又在更大的模型上Resnext152做了实验,结论还是与先前的一致,预训练并没有带来模型性能的提升

5.1.4 关键点检测

我们也使用了MaskRCNN训练了COCO数据集人体关键点检测任务。

MaskRCNN训练了COCO数据集在人体关键点检测任务的结果

在关键点检测任务上,从零训练的model能更快的追上pretrain的结果。因此ImageNet预训练对于关键点检测上提升不大

5.1.5 没有BN/GN的模型-VGG系列

Resnet系列的模型需要Normalization才能更好的收敛,而VGG系列可以在正确的初始化下,有不错的收敛效果。因此我们替换了MaskRCNN的backbone为VGG系列 设定初始学习率为0.02, 学习率衰减10倍,weight decay为0.0001

即使是预训练过的模型,其收敛速度依然很缓慢。在更多的迭代次数上,从头训练的模型才勉强追上来。

因此加入合适的Normalization,对收敛速度提升帮助很大

5.1.6 在更少的数据上训练

我们依然在COCO数据集,从35K,10K, 1K的三个数据量级来做对比实验

5.1.6.1 35K images

使用COCO35K数据集进行训练

首先我们保持之前超参不变,在35K数据集上训练。可以看到训练效果明显很差,「这也说明ImageNet预训练不能防止过拟合」。为了更好的baseline进行对比,「我们使用grid search对超参进行搜索」,再来做对比实验

预训练和从头训练的效果类似

进行了超参调整后,在35K数据集上表现与之前的类似

5.1.6.2 10K images

跟35K 类似,我们重复了实验步骤,并且根据数据量,适当调小了迭代次数

使用COCO10K数据集进行训练

可以看到使用预训练和从头训练的表现还是很接近的,甚至最后略有超过

5.1.6.2 断崖式下跌,1K images

实验在1K数据量级下,发生了极大的变化

使用COCO1K数据集进行训练

虽然在loss上,从零开始训练的模型loss也能下降到一个不错的值,但是最终「评测指标表现十分差」

预训练的模型是 9.9AP

而从零开始训练的模型是 3.5AP

「由于缺少数据,导致了模型过拟合现象十分严重」

同样的现象也出现在「PASCAL VOC数据集上」

ImageNet预训练模型和从零开始训练的模型的mAP分别是 「82.7」「77.6」

6. 讨论与总结

  1. 「为了达到相同的性能,从头开始训练的模型需要更多的迭代次数」
  2. 「在没有架构更改情况下,可以对目标任务从头开始训练」
  3. 「只有在极少图片数目下,从头开始训练的模型性能才会出现明显下降」
  4. 「ImageNet 预训练 加快模型收敛」
  5. 「ImageNet 预训练不能缓解过拟合现象」
  6. 「当目标任务对空间位置更敏感时,ImageNet pretrain所起到的作用会比较小」

在笔者看来,训练网络就跟人类学习行为很相似。当我们在相关领域打好基础(Imagenet pretrain),就能很快的学习掌握其他技能(快速收敛)。但是这些基础不一定适用所有课程(预训练不能缓解过拟合)。当我们从头开始学习的时候,需要更多的时间来去弥补基础,最后才能掌握更高难度的题目。如果一开始太专注于难题,去拟合答案(在训练早期就以很小的学习率去学习),我们反而没有完全掌握题目,只是在套公式套答案(模型性能下降)。

最近也有研究说人类的神经元记忆时间有一定时间限制,自监督是未来的主流方向。那么自监督是不是也能结合恺明这篇文章进行更多的延申呢?欢迎读者们进行留言探讨~

0 人点赞