关于深度学习中的Precision和Recall的一些理解

2021-09-07 15:28:00 浏览数 (1)

precision和recall。这是论文中经常提及的两个概念。我们举这样的一个例子: 我们现在有一个检测的任务,但是这个任务数据中包含了。那么我们这个时候就有一个问题,我们怎么描述一个物体被检测出来呢?为此,我们引入了IOU这个概念?

我们规定IOU > 0.5表示物体被检测出来,否则没有。

现在我们有了这个指标,我们开始跑数据。假设我们已经把网络训练好了,接着找来一张图片测试(这张图片上有四个狗和三只猫),测试结果这样的(我们的目标是找图片中的狗)

标注的数字表示IOU值,我们只选择IOU > 0.5的物体。

那么,这个时候问题又出现了,我们怎么描述我们检测的结果怎么样呢?这个时候就出现了precisionrecall。我们先不急着说明这两个概念是什么,我们先看上面的结果,我们发现,我们要找的目标是狗,结果查找的目标中有猫,这显然不是我们希望看到的。我们希望通过一个指标去描述这个问题,所以我们提出了precision,precision是描述查找一个目标的精准率。我们还发现一个问题,就是我们漏找了,明明右上角是一只狗,结果没有找出来,为了表述这个问题,所以我们提出recall,recall是描述查找一个目标的漏检率,recall很多地方翻译为召回率,我更喜欢称它为漏检率或查全率。

我们将被正确识别的狗,称为True positives。我们将被正确识别的猫称为True negatives。为什么会有这个概念?什么是被正确识别的猫?我们知道我们这里的目标是找狗,那么那些我们没有标注的猫,是不是从反向说明我们的查找准确率(precision)呢?接着,我们定义被错误识别为狗的猫False positives被错误识别为猫的狗称为False negatives(就是右上角的狗,受IOU指标影响)。这些概念很重要,不要记错了!!!

接着我们就定义:

我们就很容易的计算出这里的 precision=3/4​,recall=3/4​ 。最后说一点,如果我们把IOU标准设置为IOU > 0的话,这个时候的recall会越来越接近于1,而相应的precision也会降低,这很容易理解。

0 人点赞