DETR
能够消除物体检测中许多手工设计组件的需求,同时展示良好的性能。但由于注意力模块在处理图像特征图方面的限制,DETR
存在收敛速度慢和特征分辨率有限的问题。为了缓解这些问题,论文提出了Deformable DETR
,其注意力模块仅关注参考点周围的一小组关键采样点,通过更少的训练次数实现比DETR
更好的性能来源:晓飞的算法工程笔记 公众号
论文: Deformable DETR: Deformable Transformers for End-to-End Object Detection
- 论文地址:https://arxiv.org/abs/2010.04159
- 论文代码:https://github.com/fundamentalvision/Deformable-DETR
Introduction
现代物体检测器采用许多手工制作的组件,例如锚点生成、基于规则的训练目标分配、非极大值抑制 (NMS
) 后处理,导致其并不是完全端到端的。DETR
的提出消除了对此类手工制作组件的需求,并构建了第一个完全端到端的物体检测器。DETR
采用简单的架构,结合卷积神经网络 (CNN
) 和Transformer
编码器-解码器,利用Transformer
的多功能且强大的关系建模功能,达到了很不错的性能。
尽管DETR
具有有趣的设计和良好的性能,但它也有自己的问题:(1)需要更长的训练周期才能收敛。(2)DETR
在检测小物体方面的性能相对较低,没有利用多尺度特征。
上述问题主要归因于Transformer
组件在处理图像特征图方面的缺陷。在初始化时,注意力模块将几乎统一的注意力权重投射到特征图中的所有像素。长时间的训练对于注意力权重学习如何关注稀疏的有意义的位置是必要的。另一方面,Transformer
编码器中的注意力权重计算与像素成二次计算度。因此,处理高分辨率特征图的计算和存储复杂度非常高。
在图像领域,可变形卷积是处理稀疏空间位置的强大而有效的机制,自然就避免了上述问题。但它缺乏元素关系建模机制,而这正是DETR
成功的关键。
在本文中,论文提出了Deformable DETR
,结合可变形卷积的稀疏空间采样和Transformers
的关系建模能力,缓解了DETR
收敛速度慢和计算复杂度高的问题。可变形注意模块仅关注一小组采样位置,相当于所有特征图像素中突出关键元素的预过滤器。该模块可以自然地扩展到多尺度特征架构,而无需FPN
的帮助。在Deformable DETR
中,论文利用(多尺度)可变形注意力模块来代替处理特征图的Transformer
注意力模块,如图 1 所示。
Revisiting Transformers and DETR
Multi-Head Attention in Transformers.
定义 $qinOmega{q}$ 为查询元素下标,索引特征 ${z}{q}in {mathbb{R}}^C$ ,$kinOmega{k}$ 为键元素下标,索引特征 $x_k in mathbb{R}^C$,${C}$ 是特征维度,$Omega{q}$ 和 $Omega_{k}$ 分别为查询元素和键元素的集合。
多头注意力特征的计算可表示为:
$$
mathrm{MultiHeadAttn}(z{q},x)=sum{m=1}^{M}W{m}[sum{kinOmega{k}}A{m q k}cdot W{m}^{prime}x{k}],
quadquad (1)
$$
其中 $m$ 为注意力头下标,$W{m}^{prime}inmathbb{R}^{C{v}times C}$ 和 $W{m}in{mathbb{R}^{{C}times C{v}}}$ 为可学习的权重(默认 ${C}{v}=C/M$)。注意力权重 $A{m q k}propto{exp}lbracefrac{z{q}^{T},U{m}^{T},,V{m},x{k}}{sqrt{C{v}}}rbrace$ 归一化为 $sum{kinOmegak}A{mqk}=1$,其中 $U{m},V{m}inmathbb{R}^{C{v}times C}$ 也是可学习的权重。为了区别不同的空间位置,特征 ${z}{q}$ 和 ${z}_{k}$ 通常是元素内容和位置嵌入的串联或求和。
Transformer
有两个已知问题:1)收敛需要很长的训练周期。2)多头注意力的计算和内存复杂度可能非常高。
DETR
DETR
建立在Transformer
编码器-解码器架构之上,与基于集合的匈牙利损失相结合,通过二分匹配强制对每个GT
的边界框进行预测。对DETR
不熟悉的,可以看看之前的文章,【DETR:Facebook提出基于Transformer的目标检测新范式 | ECCV 2020 Oral】。
给定CNN
主干网提取的输入特征图 $xinmathbb{R}^{Ctimes Htimes W}$,DETR
利用标准Transformer
编码器-解码器架构将输入特征图转换为一组对象查询的特征。在对象查询特征(由解码器产生)之上添加一个 3 层前馈神经网络(FFN
)和一个线性投影作为检测头。FFN
充当回归分支来预测边界框坐标 $bin 0, 1^4$,其中 $b = {b{x},b{y},b{w},b{h}}$ 编码归一化的框中心坐标、框高度和框宽度(相对于图像大小),线性投影则作为分类分支来产生分类结果。
对于DETR
中的Transformer
编码器,查询元素和键元素都是主干网络特征图中的像素(带有编码的位置嵌入)。
对于DETR
中的Transformer
解码器,输入包括来自编码器的特征图和由可学习位置嵌入表示的N
个对象查询。解码器中有两种类型的注意力模块,即交叉注意力模块和自注意力模块。
- 在交叉注意力模块中,查询元素为学习到的对象查询,而键元素是编码器的输出特征图。
- 在自注意力模块中,查询元素和键元素都是对象查询,从而捕获它们的关系。
DETR
是一种极具吸引力的物体检测设计,无需许多手工设计的组件,但也有自己的问题:1)由于计算复杂度限制其可使用分辨率的大小,导致Transformer
在检测小物体方面的性能相对较低。2)因为处理图像特征的注意力模块很难训练,DETR
需要更多的训练周期才能收敛。
METHOD
Deformable Transformers for End-to-End Object Detection
- Deformable Attention Module
在图像特征图上应用注意力计算的核心问题是,它会遍历所有的空间位置。为了解决这个问题,论文提出了一个可变形的注意力模块。受可变形卷积的启发,可变形注意力模块仅关注参考点周围的一小组关键采样点,而不管特征图的空间大小。如图 2 所示,通过为每个查询元素仅分配少量的键元素,可以缓解收敛慢和特征空间分辨率大的问题。
给定输入特征图 $xinmathbb{R}^{Ctimes Htimes W}$ ,$q$ 为查询元素的下标,对应内容特征 ${z}{q}$ 和二维参考点 ${p}{q}$,可变形注意力特征的计算如下
$$
mathrm{DeformAttn}(z{q},p{q},x)=sum{m=1}^{M}W{m}sum{k=1}^{K}A{m q k}cdot W{m}^{prime}x(p{q} Delta p_{m q k}),
quadquad (2)
$$
其中 $m$ 为注意力头下标,$k$ 为采样点下标,$K$ 为采样点总数( $Kll H W$ )。${Delta}p{mqk}$ 和 $A{m q k}$ 表示第k
个采样点的采样偏移及其使用的在第m
个头中的注意力权重。注意力权重 $A{m q k}$ 在 $0,1$ 范围内,由 $sum{k=1}^{K}A{m q k} = 1$ 归一化。 ${Delta}p{mqk}in mathbb{R}^{2}$是无约束范围的二维实数,由于 $p{q} Delta p{mqk}$ 是小数,需要应用双线性插值。$Delta p{m q k}$ 和 $A{mqk}$ 均通过对查询特征 ${z}{q}$ 的线性投影获得的。在实现中,查询特征 $z{q}$ 被输入到 $3MK$ 通道的线性投影运算符,其中前 $2MK$ 通道对 ${Delta}P{m q k}$ 采样偏移进行编码,剩余的 $MK$ 通道输入到 $Softmax$ 运算符以获得 $A{m q k}$ 注意力权重。
定义 $N{q}$ 为查询元素的数量,当 $M K$ 相对较小时,可变形注意力模块的复杂度为$O(2N{q}C^{2} operatorname*{min}(H W C^{2},N{q}K C^{2}))$。当应用于DETR
编码器时,其中 $N{q}=H W$ ,复杂度变为 $O(H W C^{2})$,与空间大小成线性复杂度。当应用于DETR
解码器中的交叉注意模块时,其中 $N_{q}=N$ ($N$ 是对象查询的数量),复杂度变为 $O(NKC^2)$,这与空间大小$HW$无关。
- Multi-scale Deformable Attention Module
大多数现代目标检测框架都受益于多尺度特征图,论文提出的可变形注意模块也可以自然地扩展到多尺度特征图。
定义 $left{x^{l}right}^{L}{l=1}$ 为输入的多尺度特征图,其中 $x^{l}in mathbb{R}^{Ctimes H{l}times W{l}}$。定义 ${hat{p}}{q}in0,1^{2}$ 为每个查询元素 $q$ 对应的参考点的归一化坐标,多尺度可变形注意模块的计算为:
$$
mathrm{MSDeformAttn}(z{q},hat{p}{q},{x^{l}}{l=1}^{L})=sum{m=1}^{M}W{m}bigl[sum{l=1}^{L}sum{k=1}^{K}A{m l q k}cdot W{m}^{prime}x^{l}(phi{l}(hat{p}{q}) Delta p{m l q k}bigr)bigr],
quadquad (3)
$$
其中 $m$ 为注意力头下标,$l$ 为输入特征级别下标,$k$ 为采样点下标。$Delta p{mlqk}$ 和 $A{mlqk}$ 表示第 ${{k}}^{th}$ 个采样点在第 ${{l}}^{th}$ 个特征级别和第 ${{m}}^{th}$ 个注意头中的采样偏移和注意力权重,其中标量注意力权重 $A{mlqk}$ 由 $sum^L{l=1}sum^K{k=1}A{mlqk}=1$ 归一化。为了缩放方便,使用归一化的坐标 ${hat{p}}{q}in0,1^{2}$,其中 $(0,0)$ 和 $(1,1)$ 分别表示图像的左上角和右下角。公式 3 中的函数 $phi{l}{({hat{p}}{q})}^{cdot}$ 将归一化坐标 ${hat{p}}{q}$ 重新缩放到第 ${l}^{th}$ 级别的输入特征图的坐标。多尺度可变形注意力与之前的单尺度版本非常相似,只是它从多尺度特征图中采样 $LK$ 个点,而不是仅从单尺度特征图中采样 $K$ 个点。
当 $L=1$,$K=1$ 以及将 $W^{'}{m}in mathbb{R}^{{C}{v}times C}$ 固定为单位矩阵时,论文所提出的注意力模块即退化为可变形卷积。
可变形卷积是针对单尺度输入而设计的,每个注意力头仅关注一个采样点,而论文的多尺度可变形注意力会关注来自多尺度输入的多个采样点。(多尺度)可变形注意模块也可以被视为Transformer
注意力的有效变体,可变形采样位置相当于引入预过滤机制。当采样点为所有位置时,可变形注意力模块相当于Transformer
注意力。
- Deformable Transformer Encoder
将DETR
中处理特征图的注意力模块替换为多尺度可变形注意力模块,编码器的输入和输出都是具有相同分辨率的多尺度特征图。
将ResNet
的 $C3$ 到 $C_5$ 阶段的输出特征图,通过 $1times 1$ 卷积提取多尺度特征图 $left{x^{l}right}{l=1}^{L-1}$($L=4$),其中 $C{l}$ 的分辨率为输入图像的 $2^{l}$ 倍降采样。最低分辨率特征图 $x^{L}$ 是通过对 $C_5$ 阶段的输出进行步幅为 2 的 $3 times 3$ 卷积获得,表示为 $C{6}$ 阶段。所有多尺度特征图都是 $C=256$ 通道。这里没有使用类似FPN
的自上而下结构,因为论文提出的多尺度可变形注意力本身就可以在多尺度特征图之间交换信息,添加FPN
并不会提高性能。
在编码器中应用多尺度可变形注意力模块时,输出是与输入具有相同分辨率的多尺度特征图,键和查询元素都是来自多尺度特征图的像素。对于每个查询像素,参考点是其本身。为了确定每个查询像素位于哪个特征级别,除了位置嵌入之外,还在特征中添加了尺度级别嵌入 $e_{l}$。与固定编码的位置嵌入不同,尺度级嵌入是随机初始化并与网络联合训练的。
- Deformable Transformer Decoder
解码器中有交叉注意力和自注意力模块,两种类型的注意力模块的查询元素都是对象查询。在交叉注意力模块中,键元素是编码器的输出特征图,对象查询通过与特征图交互提取特征。而在自注意力模块中,键元素也是对象查询,对象查询即相互交互提取特征。
由于可变形注意模块的设计初衷是将卷积特征图作为键元素,因此论文仅将交叉注意模块替换为多尺度可变形注意模块,保持自注意模块不变。对于每个对象查询,参考点 ${hat{p}}_{q}$ 的二维归一化坐标是通过带 $mathrm{sigmoid}$ 函数的可学习线性投影从对象查询嵌入中预测的。
由于多尺度可变形注意模块提取参考点周围的图像特征,论文将参考点作为边界框中心的初始猜测,然后检测头预测边的相对偏移量。这样,不仅能够降低优化难度,还能让解码器注意力将与预测的边界框具有很强的相关性,加速训练收敛。
Additional Improvements and Variants for Deformable DETR
由于其快速收敛以及高效率的计算,可变形DETR
为各种端到端目标检测器的变体提供了可能性,比如:
- Iterative Bounding Box Refinement:通过级联的方式,每层解码器优化前一层的预测结果。
- Two-Stage Deformable DETR:通过两阶段检测的方式,选择第一阶段预测的高分区域提案作为第二阶段解码器的对象查询。
EXPERIMENT
表 1 展示了与Faster R-CNN
FPN
、DETR
的性能对比。
表 2 列出了所提出的可变形注意模块的各种设计选择的消融实验。
表 3 与其他最先进的方法进行了比较。
如果本文对你有帮助,麻烦点个赞或在看呗~undefined更多内容请关注 微信公众号【晓飞的算法工程笔记】