前言
非极大值抑制算法(Non-maximum suppression, NMS)是有anchor系列目标检测的标配,如今大部分的One-Stage和Two-Stage算法在推断(Inference)阶段都使用了NMS作为网络的最后一层,例如YOLOv3、SSD、Faster-RCNN等。
当然NMS在目前最新的anchor-free目标检测算法中(CornerNet、CenterNet等)并不是必须的,对这种检测算法提升的精度也有限,但是这并不影响我们学习NMS。
NMS的本质是搜索局部极大值,抑制非极大值元素,在目标检测中,我们经常将其用于消除多余的检测框(从左到右消除了重复的检测框,只保留当前最大confidence的检测框):
NMS有很多种变体,这里介绍最为常见的Hard-NMS,我们通常所说的NMS就是指Hard-NMS,还有另外一种NMS叫做Soft-NMS,是Hard-NMS的变体,两者的代码几乎相同,只需要改动一个地方。
Hard-NMS
Hard-NMS就是我们传统意义上的NMS,也是最常用的NMS算法。
因为NMS主要用于消除多余的检测框,那么消除的标准是什么,我们使用IOU作为标准来进行演示,IOU的原称为Intersection over Union,也就是两个box区域的交集比上并集,下图可以方便理解:
具体介绍可以看这里:深度学习中IU、IoU(Intersection over Union)的概念理解以及python程序实现
因为我们要手撸么,所以废话不多说,直接开始看代码,首先使用Pytorch来看一篇:
代码语言:javascript复制def hard_nms(box_scores, iou_threshold, top_k=-1, candidate_size=200):
"""
Args:
box_scores (N, 5): box的集合,N为框的数量,5即4(位置信息) 1(可能为物体的概率)
iou_threshold: 我们用IOU标准去除多余检测框的阈值
top_k: 保留多少个计算后留下来的候选框,如果为-1则全保留
candidate_size: 参与计算的boxes数量
Returns:
picked: 经过nms计算后保留下来的box
"""
scores = box_scores[:, -1] # 首先我们取出box中的最后一个元素也就是当前box检测到物体的概率
boxes = box_scores[:, :-1] # 取出box中的四个坐标(左上、右下)
picked = []
_, indexes = scores.sort(descending=True) # 按照降序排列所有的物体的概率,得到排序后在原数组中的索引信息 indexes
indexes = indexes[:candidate_size] # 只保留前 candidate_size 个 boxes 其余的不考虑了
while len(indexes) > 0:
current = indexes[0] # 每次取出当前在 indexes 中 检测到物体概率最大的一个
picked.append(current.item()) # 将这个最大的存在结果中
if 0 < top_k == len(picked) or len(indexes) == 1:
break
current_box = boxes[current, :] # 当前第一个也就是最高概率的box
indexes = indexes[1:]
rest_boxes = boxes[indexes, :] # 剩下其余的box
iou = iou_of( # 将当前的box与剩下其余的boxes用IOU标准进行筛选
rest_boxes,
current_box.unsqueeze(0),
)
indexes = indexes[iou <= iou_threshold]# 保留与当前box的IOU小于一定阈值的boxes,
return box_scores[picked, :]
看了上面的代码,我们可以知道大概的流程:
- 选取这类box中scores最大的那一个,记为current_box,并保留它(为什么保留它,因为它预测出当前位置有物体的概率最大啊,对于我们来说当前confidence越大说明当前box中包含物体的可能行就越大)
- 计算current_box与其余的box的IOU
- 如果其IOU大于我们设定的阈值,那么就舍弃这些boxes(由于可能这两个box表示同一目标,因此这两个box的IOU就比较大,会超过我们设定的阈值,所以就保留分数高的那一个)
- 从最后剩余的boxes中,再找出最大scores的那一个(之前那个大的已经保存到输出的数组中,这个是从剩下的里面再挑一个最大的),如此循环往复
至于上述代码中iou_of
部分:
def area_of(left_top, right_bottom) -> torch.Tensor:
"""Compute the areas of rectangles given two corners.
Args:
left_top (N, 2): left top corner.
right_bottom (N, 2): right bottom corner.
Returns:
area (N): return the area.
"""
hw = torch.clamp(right_bottom - left_top, min=0.0)
return hw[..., 0] * hw[..., 1]
def iou_of(boxes0, boxes1, eps=1e-5):
"""Return intersection-over-union (Jaccard index) of boxes.
Args:
boxes0 (N, 4): ground truth boxes.
boxes1 (N or 1, 4): predicted boxes.
eps: a small number to avoid 0 as denominator.
Returns:
iou (N): IoU values.
"""
overlap_left_top = torch.max(boxes0[..., :2], boxes1[..., :2])
overlap_right_bottom = torch.min(boxes0[..., 2:], boxes1[..., 2:])
overlap_area = area_of(overlap_left_top, overlap_right_bottom)
area0 = area_of(boxes0[..., :2], boxes0[..., 2:])
area1 = area_of(boxes1[..., :2], boxes1[..., 2:])
return overlap_area / (area0 area1 - overlap_area eps)
手撕NMS
手撕代码用什么撕,当然是用C 撕,这才爽么!
直接看代码,其中使用了OpenCV库中的Point2f
结构体:
// 这是一个模板函数,接受一个已经排好序的vector,然后降序返回其索引
template <typename T>
vector<int> sort_indexes(const vector<T> &v) {
vector<int> idx(v.size());
iota(idx.begin(), idx.end(), 0);
sort(idx.begin(), idx.end(),
[&v](int i1, int i2) {return v[i1] > v[i2];});
return idx;
}
// 这就是我们的NMS函数 输入的坐标已经标准化,所有数值的范围为 0-1
/*
* numBoxes:窗口数目
* points:窗口左上角坐标点
* oppositePoints:窗口右下角坐标点
* score:窗口得分
* overlapThreshold:重叠阈值控制
* numBoxesOut:输出窗口数目
* pointsOut:输出窗口左上角坐标点
* oppositePoints:输出窗口右下角坐标点
* scoreOut:输出窗口得分
*/
int nonMaximumSuppression(int numBoxes, const vector<Point2f>& points,
const vector<Point2f>& oppositePoints, const vector<float>& score,
float overlapThreshold,
int *numBoxesOut, vector<Point2f>& pointsOut,
vector<Point2f>& oppositePointsOut, vector<float>& scoreOut)
{
const float eps = 1e-5;
int i, j, index;
float* box_area = (float*)malloc(numBoxes * sizeof(float)); // 定义窗口面积变量并分配空间
vector<int> indices;
int* is_suppressed = (int*)malloc(numBoxes * sizeof(int)); // 定义是否抑制表标志并分配空间
// 初始化indices、is_supperssed、box_area信息
for (i = 0; i < numBoxes; i )
{
indices.push_back(i);
is_suppressed[i] = 0;
box_area[i] = ((oppositePoints[i].x - points[i].x eps) *
(oppositePoints[i].y - points[i].y eps));
}
// 对输入窗口按照分数比值进行排序,排序后的编号放在indices中
indices = sort_indexes(score);
for (i = 0; i < numBoxes; i ) // 循环所有窗口
{
if (!is_suppressed[indices[i]]) // 判断窗口是否被抑制
{
for (j = i 1; j < numBoxes; j ) // 循环当前窗口之后的窗口
{
if (!is_suppressed[indices[j]]) // 判断窗口是否被抑制
{
float x1max = max(points[indices[i]].x, points[indices[j]].x); // 求两个窗口左上角x坐标最大值
float x2min = min(oppositePoints[indices[i]].x, oppositePoints[indices[j]].x); // 求两个窗口右下角x坐标最小值
float y1max = max(points[indices[i]].y, points[indices[j]].y); // 求两个窗口左上角y坐标最大值
float y2min = min(oppositePoints[indices[i]].y, oppositePoints[indices[j]].y); // 求两个窗口右下角y坐标最小值
float overlapWidth = x2min - x1max eps; // 计算两矩形重叠的宽度
float overlapHeight = y2min - y1max eps; // 计算两矩形重叠的高度
if (overlapWidth > 0 && overlapHeight > 0)
{
float overlapPart = (overlapWidth * overlapHeight) / box_area[indices[j]]; // 计算重叠的比率
if (overlapPart > overlapThreshold) // 判断重叠比率是否超过重叠阈值
{
is_suppressed[indices[j]] = 1; // 将窗口j标记为抑制
}
}
}
}
}
}
*numBoxesOut = 0; // 初始化输出窗口数目0
for (i = 0; i < numBoxes; i )
{
if (!is_suppressed[i]) (*numBoxesOut) ; // 统计输出窗口数目
}
for (i = 0; i < numBoxes; i ) // 遍历所有输入窗口
{
if (!is_suppressed[indices[i]]) // 将未发生抑制的窗口信息保存到输出信息中
{
Point2f temp_xy(points[indices[i]].x, points[indices[i]].y);
Point2f temp_Opxy(oppositePoints[indices[i]].x, oppositePoints[indices[i]].y);
pointsOut.push_back(temp_xy);
oppositePointsOut.push_back(temp_Opxy);
scoreOut.push_back(score[indices[i]]);
}
}
indices.clear();
free(box_area); // 释放box_area空间
free(is_suppressed); // 释放is_suppressed空间
return 0;
}
好了,代码撕完了。
Soft-NMS
NMS是最常用的目标检测后处理算法,但是NMS对于密集目标的检测就有小问题了,因为NMS是对其他box的iou与当前最大confidence的box的iou进行比较,如果大于一定的阈值,就将当前这个confidence最大的box周围满足条件的box给去掉。
通常情况普通NMS是可行的,但是有些情况,比如在相似目标离的比较近的时候,使用NMS就会出现:
上图中,由于红框和绿框的IOU大于了一定的阈值(假如我们设定了0.4),然后绿色框框的confidence没有红色框框的高,然后经过nms后,就没了…你会说我们可以改变阈值啊,比如从0.4改成0.5,要求高一点,但是这个阈值高了的话,可能就会导致误检了,这个阈值设置永远不可能完美。
也就是说,如果目标比较密集的话,这个时候就需要Soft-nms了:
那Soft-NMS和NMS的区别就在于改动了一个地方,在判断当前最高confidence的box和其余box的IOU的时候加了一个系数,这个系数可以让我们更好地选择要去掉的多余的box。
对于Hard-NMS来说,当最大confidence与其余box的IOU大于一定的阈值,这些多余的box就消失了:
而在Soft-NMS中,对于与最大confidence的box相比iou大于一定阈值的框乘以一个与IOU相关的系数,最终得到更新后的iou值:
或者是这种形式:
看到这里可能还不清楚,我们继续看看下面的代码:
代码语言:javascript复制def soft_nms(box_scores, score_threshold, sigma=0.5, top_k=-1):
"""Soft NMS implementation.
References:
https://arxiv.org/abs/1704.04503
https://github.com/facebookresearch/Detectron/blob/master/detectron/utils/cython_nms.pyx
Args:
box_scores (N, 5): boxes in corner-form and probabilities.
score_threshold: boxes with scores less than value are not considered.
sigma: the parameter in score re-computation.
scores[i] = scores[i] * exp(-(iou_i)^2 / simga)
top_k: keep top_k results. If k <= 0, keep all the results.
Returns:
picked_box_scores (K, 5): results of NMS.
"""
picked_box_scores = []
while box_scores.size(0) > 0:
max_score_index = torch.argmax(box_scores[:, 4])
cur_box_prob = torch.tensor(box_scores[max_score_index, :])
picked_box_scores.append(cur_box_prob)
if len(picked_box_scores) == top_k > 0 or box_scores.size(0) == 1:
break
cur_box = cur_box_prob[:-1]
box_scores[max_score_index, :] = box_scores[-1, :]
box_scores = box_scores[:-1, :]
ious = iou_of(cur_box.unsqueeze(0), box_scores[:, :-1])
# 以下这句是新加的,如果没有这句就是Hard-NMS了
box_scores[:, -1] = box_scores[:, -1] * torch.exp(-(ious * ious) / sigma)
box_scores = box_scores[box_scores[:, -1] > score_threshold, :]
if len(picked_box_scores) > 0:
return torch.stack(picked_box_scores)
else:
return torch.tensor([])
Hard-NMS与Soft-NMS的区别不大,Soft-NMS对于Hard-NMS也没有特别多的计算量,所以在实际中,我们尽量使用Soft-NMS就好。