引言 首先感谢:https://github.com/AberHu/Knowledge-Distillation-Zoo
笔者在这个基础上进行测试,测试了在CIFAR10数据集上的结果。
学生网络resnet20:92.29%
教师网络resnet110:94.31%
这里只展示几个感兴趣的算法结果带来的收益:
- logits(mimic learning via regressing logits): 0.78
- ST(soft target): 0.16
- OFD(overhaul of feature distillation): 0.45
- AT(attention transfer): 0.71
- NST(neural selective transfer): 0.38
- RKD(relational knowledge distillation): 0.65
- AFD(attention feature distillation): 0.18
- DML(deep mutual learning): 2.24 (ps: 这里教师网络已经训练好了,与DML不同)
DML也是传统知识蒸馏的扩展,其目标也是将大型模型压缩为小的模型。但是不同于传统知识蒸馏的单向蒸馏(教师→学生),DML认为可以让学生互相学习(双向蒸馏),在整个训练的过程中互相学习,通过这种方式可以提升模型的性能。
DML通过实验证明在没有先验强大的教师网络的情况下,仅通过学生网络之间的互相学习也可以超过传统的KD。
如果传统的知识蒸馏是由教师网络指导学生网络,那么DML就是让两个学生互帮互助,互相学习。
DML
小型的网络通常有与大网络相同的表示能力,但是训练起来比大网络更加困难。那么先训练一个大型的网络,然后通过使用模型剪枝、知识蒸馏等方法就可以让小型模型的性能提升,甚至超过大型模型。
以知识蒸馏为例,通常需要先训练一个大而宽的教师网络,然后让小的学生网络来模仿教师网络。通过这种方式相比直接从hard label学习,可以降低学习的难度,这样学生网络甚至可以比教师网络更强。
Deep Mutual Learning则是让两个小的学生网络同时学习,对于每个单独的网络来说,会有针对hard label的分类损失函数,还有模仿另外的学生网络的损失函数,用于对齐学生网络的类别后验。
这种方式一般会产生这样的疑问,两个随机初始化的学生网络最初阶段性能都很差的情况,这样相互模仿可能会导致性能更差,或者性能停滞不前(the blind lead the blind)。
文章中这样进行解释:
- 每个学生主要是倍传统的有监督学习损失函数影响,这意味着学生网络的性能大体会是增长趋势,这意味着他们的表现通常会提高,他们不能作为一个群体任意地漂移到群体思维。(原文:they cannot drift arbitrarily into groupthink as a cohort.)
- 在监督信号下,所有的网络都会朝着预测正确label的方向发展,但是不同的网络在初始化值不同,他们会学到不同的表征,因此他们对下一类最有可能的概率的估计是不同的。
- 在Mutual Learning中,学生群体可以有效汇集下一个最后可能的类别估计,为每个训练实例找到最有可能的类别,同时根据他们互学习对象增加每个学生的后验熵,有助于网络收敛到更平坦的极小值,从而带来更好的泛华能力和鲁棒性。
- Why Deep Nets Generalise 有关网络泛化性能的讨论认为:在深度神经网络中,有很多解法(参数组合)可以使得训练错误为0,其中一些在比较loss landscape平坦处参数可以比其他narrow位置的泛华性能更好,所以小的干扰不会彻底改变预测的效果;
- DML通过实验发现:(1)训练过程损失可以接近于0 。(2)在扰动下对loss的变动接受能力更强。(3)给出的class置信度不会过于高。总体来说就是:DML并没有帮助我们找到更好的训练损失最小值,而是帮助我们找到更广泛/更稳健的最小值,更好地对测试数据进行泛华。
DML具有的特点是:
- 适合于各种网络架构,由大小网络混合组成的异构的网络也可以进行相互学习(因为只学习logits)
- 效能会随着队列中网络数量的增加而增加,即互学习对象增多的时候,性能会有一定的提升。
- 有利于半监督学习,因为其在标记和未标记数据上都激活了模仿损失。
- 虽然DML的重点是得到某一个有效的网络,整个队列中的网络可以作为模型集成的对象进行集成。
DML中使用到了KL Divergence衡量两者之间的差距:
P1和P2代表两者的逻辑层输出,那么对于每个网络来说,他们需要学习的损失函数为:
其中
代表传统的分类损失函数,比如交叉熵损失函数。
可以发现KL divergence是非对称的,那么对两个网络来说,学习到的会有所不同,所以可以使用堆成的Jensen-Shannon Divergence Loss作为替代:
更新过程的伪代码:
更多的互学习对象
给定K个互学习网络,
, 那么目标函数变为:
将模仿信息变为其他互学习网络的KL divergence的均值。
扩展到半监督学习
在训练半监督的时候,我们对于有标签数据只使用交叉熵损失函数,对于所有训练数据(包括有标签和无标签)的计算KL Divergence 损失。
这是因为KL Divergence loss的计算天然的不需要真实标签,因此有助于半监督的学习。
实验结果
几个网络的参数情况:
在CIFAR10和CIFAR100上训练效果
在Reid数据集Market-1501上也进行了测试:
发现互学习目标越多,性能呈上升趋势:
结论
本文提出了一种简单而普遍适用的方法来提高深度神经网络的性能,方法是在一个队列中通过对等和相互蒸馏进行训练。
通过这种方法,可以获得紧凑的网络,其性能优于那些从强大但静态的教师中提炼出来的网络。DML的一个应用是获得紧凑、快速和有效的网络。文章还表明,这种方法也有希望提高大型强大网络的性能,并且以这种方式训练的网络队列可以作为一个集成来进一步提高性能。
参考
https://github.com/AberHu/Knowledge-Distillation-Zoo
https://openaccess.thecvf.com/content_cvpr_2018/papers/Zhang_Deep_Mutual_Learning_CVPR_2018_paper.pdf