前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >让检测告别遮挡 | 详细解读NMS-Loss是如何解决目标检测中的遮挡问题?

让检测告别遮挡 | 详细解读NMS-Loss是如何解决目标检测中的遮挡问题?

作者头像
集智书童公众号
发布2021-07-07 10:53:12
2.7K0
发布2021-07-07 10:53:12
举报
文章被收录于专栏:集智书童

1简介

非极大值抑制(Non-Maximum Suppression, NMS)在目标检测中至关重要,它通过合并假阳性(FP)和假阴性(FN)影响目标检测结果,尤其是在人群遮挡场景中。在本文中提出了NMS造成的训练目标和评估指标之间的弱连接问题,并提出了一种新的损失函数NMS-loss,使NMS过程可以端到端地被训练而不需要任何附加的网络参数。

NMS-loss惩罚2种情况,即FP没有被抑制,而FN被NMS错误地删除。具体来说,NMS-Loss提出了pull loss将具有相同目标的预测拉得很近,以及push loss将具有不同目标的预测推得很远。

实验结果表明,在NMS-Loss的帮助下NMS-Ped检测器在Caltech数据集上的Miss Rate为5.92%,在CityPersons数据集上的Miss Rate为10.08%,均优于现有的同类检测器。

本文主要贡献
  • 首先提出了行人检测中训练目标与评估指标之间的弱连接问题,并提出了一种新的NMS-loss,使NMS过程在不引入任何参数和运行时间开销的情况下可以端到端进行训练。
  • 作者提出了精心设计的pull loss和push loss,分别考虑预测坐标和置信度,帮助网络提高精度和召回性能。
  • 在行人检测中,作者借助NMS-Loss提出的NMS-Ped在Caltech和CityPersons数据集上优于现有的SOTA方法。

2NMS-LOSS

传统的NMS流程如Alg.1中所示,没有考虑红色字体。

NMS从一组得分为S的检测框

B

开始,

首先,将得分最大的proposal

?_?

B

集合移动到最终保留检测的集合

K

;

然后,删除

B

中得分为

S

的且与

?_?

的重叠高于阈值

?_?

的框。

对剩下的

B

集重复此过程。

但是,现有的方法没有将NMS纳入训练过程中来调整检测框,使得学习目标与评价指标不一致,这意味着NMS未抑制FP和NMS消除FN分别会损害精度和召回率。为了避免不一致,作者提出NMS-loss将NMS程序引入到训练过程中,自适应地选择由NMS引起的错误预测,并使用精心设计的pull和push两种损失来最小化FP和FN。具体来说NMS-Loss定义为:

其中

L_{pull}

为pull损失用来惩罚FP同时不抑制由NMS,

L_{push}

为push损失用来惩罚NMS的FN错误删除。系数

\lambda_{pull}

\lambda_{push}

是平衡损失的权重。

NMS-Loss的细节在Alg.1中用红色文本强调。与传统pipeline不同,这里使用一组

G

,包含相应的检测框ground truth index,用于识别FP和FN。在NMS-Loss计算过程中,M是一个辅助字典,以ground truth指数为key,对应最大检测得分为value,用来记录每个ground truth的max score预测。

NMS-loss自然地合并到NMS过程中,而不包含任何额外的训练参数。对于测试来说,NMS-Loss的运行时成本为零。

2.1 定义Pull Loss

以降低FP为目标需要找出错误的预测。为此,在每次迭代中检查当前的max score预测

?_?

是否为其对应的

g_?

ground truth的max score预测。如果不是,则说明

?_?

是一个未被NMS抑制的FP,pull loss应在

?_?

g_?

ground truth的max score prediction

?_{???}

之间执行(见图1)。形式上pull loss计算如下:

其中

N_t

为预定义的NMS阈值,

s_m

为对应于

b_m

的预测score。

作者注意到pull loss的2个特性:

b_{max}

b_m

之间的IoU较小时,pull loss有增加的趋势,迫使网络学会将

b_m

拉向

b_{max}

。NMS的阈值

N_t

用于防止异常值的梯度对模型学习的影响过大。另外,对于NMS只需要使FP和TP之间的IoU高于

N_t

即可。在pull loss中使用

N_t

来减小异常值的梯度,可以使网络易于学习和收敛。

  • FP预测得分对pull loss也有较大影响。FP得分越高,对评价结果的影响越大,直观上需要更多的关注。此外,它使网络学习修正FP不仅要制约box坐标,而且要考虑降低预测分数。

2.2 定义Push Loss

在NMS中,当前的最大score预测

?_?

?_?

消除了获得高于

?_?

的IoU的box。如果剔除的框

b_i

对应的ground truth index 与

b_m

不同,则

b_i

为FN,降低召回率(见图1)。为了避免错误地删除

?_?

提出push loss来惩罚FN:

其中

s_i

b_i

对应的预测得分。与pull loss不同当

IoU(b_i,b_m)\to1

时,push loss增大,模型学会将

b_i

推离

b_m

。为了避免模型倾向于通过降低FN的分数来减少push loss,作者只使用

s_i

来重新加权损失,而不使用反向传播梯度。

对于拥挤的场景,特别是在CityPersons数据集中,边界框的ground truths是相互重叠的。在IoU=0的情况下,将他们的预测相互排斥是不合理的。为了处理这个问题,作者只在预测IoU高于其对应ground truth box的IoU时才计算

?_{???ℎ}

本文所提的Pull Loss和Push Loss是根据预测来执行的。当pull/push loss被激活时,网络会尝试pull/push两个预测,分别pull/push彼此。因为高分预测通常会得到一个更准确的位置,所以在一个不准确的预测基础上移动一个准确的预测是不合理的。为了解决这个问题,作者停止了高分预测的梯度向后传播,导致网络专注于错误的预测。

2.3 与RepLoss的不同之处在哪里?

RepLoss通过设置损失函数的方式,使预测框和所负责的真实目标框的距离缩小,而使得其与周围非负责目标框(包含真实目标框和预测框)的距离加大 。如下式,如果与周围目标的距离越大,损失值会越小。

作者对NMS-Loss和RepLoss进行了详细的比较,因为这2种方法都是基于它们的目标进行pull/push预测的。

主要有3个区别:

  • RepLoss在所有实例上执行,而NMS-Loss只在被NMS错误处理的实例上执行,从而实现了端到端训练。
  • RepLoss只考虑回归,而score在NMS-Loss中也用于实例重加权。
  • 在密集人群场景下RepLoss将实例推开,即使它们的目标本来很接近,使RepLoss与回归损失相矛盾。相反,NMS-Loss会推送与其他IoU高于其对应ground truth box IoU的实例,这样可以消除RepLoss的矛盾。

如表所示,NMS-Loss不仅比RepLoss表现更好,而且在CityPersons上有更高的相对改善。这表明,NMS-Loss可以在广泛使用的数据集上实现稳定的相对改进(高于10%)。

3实验

4参考阅读

[1].NMS-Loss: Learning with Non-Maximum Suppression for Crowded Pedestrian Detection

[2].Repulsion Loss: Detecting Pedestrians in a Crowd

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-06-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 集智书童 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1简介
    • 本文主要贡献
    • 2NMS-LOSS
      • 2.1 定义Pull Loss
        • 2.2 定义Push Loss
          • 2.3 与RepLoss的不同之处在哪里?
          • 3实验
          • 4参考阅读
          相关产品与服务
          图像识别
          腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档