前言
一周前 Amusi 整理了 目标检测(Object Detection)较为值得关注的论文:
一文看尽16篇目标检测最新论文(ATSS/MnasFPN/SAPD/CSPNet/DIoU Loss等)
本文再次更新值得关注的最新检测论文。这次分享的paper将同步推送到 github上,欢迎大家 star/fork(点击阅读原文,也可直接访问):
https://github.com/amusi/awesome-object-detection
注意事项:
目标检测论文
【1】SABL:侧面感知边界定位可实现更精确的目标检测
《Side-Aware Boundary Localization for More Precise Object Detection》
时间:20191210
作者团队:港中文&南洋理工大学&浙大&中科大&商汤
链接:https://arxiv.org/abs/1912.04260
代码即将开源:https://github.com/open-mmlab/mmdetection
注:Side-Aware Boundary Localization (SABL),替代bounding box regression,显著提升目标检测性能,如Faster R-CNN, RetinaNet, and Cascade R-CNN分别涨点3.0%, 1.6%, and 0.9%!
Pipeline of SABL for two-stage detector
Pipeline of SABL for two-stage detector
【2】使用强化学习对大图像进行有效的目标检测
《Efficient Object Detection in Large Images using Deep Reinforcement Learning》
时间:20191210(WACV 2020)
作者团队:斯坦福大学
链接:https://arxiv.org/abs/1912.03966
注:为了减少在高空大分辨率的遥感影像进行目标检测所耗费的计算成本,我们提出了一种增强学习方法:CPNet+FPNet,该方法自适应地选择提供给检测器的每个图像的空间分辨率。
【3】DSFPN:用于目标检测和实例分割的双重监督特征金字塔网络
《Dually Supervised Feature Pyramid for Object Detection and Segmentation》
时间:20191210
作者团队:天普大学&小鹏汽车等
链接:https://arxiv.org/abs/1912.03730
注:可有效提高Faster RCNN、Cascade RCNN和Mask RCNN的mAP!
【4】SpineNet:用于识别和定位的尺度排列Backbone
《SpineNet: Learning Scale-Permuted Backbone for Recognition and Localization》
时间:20191212
作者团队:Google Research(Quoc V. Le大佬)
链接:https://arxiv.org/abs/1912.05027
注:谷歌近期推出EfficientDet和MnasFPN后,今儿又推出SpineNet,基于RetinaNet,mAP直接高达49.2!模型更小、更快
【5】IoU-uniform R-CNN:突破RPN的局限性
《IoU-uniform R-CNN: Breaking Through the Limitations of RPN》
时间:20191212
作者团队:华中科技大学&中南民族大学
链接:https://arxiv.org/abs/1912.05190
代码:https://github.com/zl1994/IoU-Uniform-R-CNN
注:IoU-uniform R-CNN应用至Faster R-CNN、Cascade R-CNN直接涨点0.5-2个点!
【6】AugFPN:改进用于目标检测的多尺度特征学习
《AugFPN: Improving Multi-scale Feature Learning for Object Detection》
时间:20191212
作者团队:中科院&地平线
链接:https://arxiv.org/abs/1912.05384
注:AugFPN替换FPN,可帮助Faster R-CNN和RetinaNet涨点1.6AP,帮助FCOS涨点 0.9AP!代码即将开源
Overall pipeline of AugFPN based detector
【7】RDSNet:用于目标检测和实例分割的新的深度网络
《RDSNet: A New Deep Architecture for Reciprocal Object Detection and Instance Segmentation》
时间:20191212(AAAI 2020)
作者团队:中科院&地平线&国科大
链接:https://arxiv.org/abs/1912.05070
代码:https://github.com/wangsr126/RDSNet
RDSNet architecture
【8】从Noisy Anchors学习以进行One-stage目标检测
《Learning from Noisy Anchors for One-stage Object Detection》
时间:20191213
作者团队:马里兰大学帕克分校&Salesforce
链接:https://arxiv.org/abs/1912.05086
注:直接对RetinaNet性能提升2个点,性能优于FASF、ExtremeNet和FCOS等网络
【9】用于精确定位的IoU感知的Single-stage目标检测器
《IoU-aware Single-stage Object Detector for Accurate Localization》
时间:20191213
作者团队:华中科技大学
链接:https://arxiv.org/abs/1912.05992
注:IoU-aware基于RetinaNet,可涨点1.0%∼1.6%
The architecture of IoU-aware single-stage object detector
【10】LRF-Net:高速学习丰富的特征以进行Single-Shot目标检测
《Learning Rich Features at High-Speed for Single-Shot Object Detection》
时间:20191214(ICCV 2019)
作者团队:天津大学&IIAI
链接:
http://openaccess.thecvf.com/content_ICCV_2019/papers/Wang_Learning_Rich_Features_at_High-Speed_for_Single-Shot_Object_Detection_ICCV_2019_paper.pdf
代码:https://github.com/vaesl/LRF-Net
注:超越YOLOV3、RetinaNet等Single-stage网络,速度高达52FPS!代码刚开源!(基于PyTorch)
LRF-Net 网络结构