前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【源头活水】SMCA:港中文提出注意力图校准的DETR加速方案 | ICCV

【源头活水】SMCA:港中文提出注意力图校准的DETR加速方案 | ICCV

作者头像
马上科普尚尚
发布2024-06-19 14:20:40
1020
发布2024-06-19 14:20:40
举报

为了加速DETR收敛,论文提出了简单而有效的Spatially Modulated Co-AttentionSMCA)机制,通过在初始边界框位置给予较高的协同注意力响应值的约束来构建DETR的回归感知协同注意力。此外,将SMCA扩展为多头注意力和尺度选择注意力后,对比DETR可以实现更好的性能(108周期45.6 mAP vs 500周期43.3 mAP

论文: Fast Convergence of DETR with Spatially Modulated Co-Attention

  • 论文地址:https://arxiv.org/abs/2108.02404
  • 论文代码:https://github.com/gaopengcuhk/SMCA-DETR

Introduction

  • 对于编码器中的多尺度视觉特征,不是简单地对CNN主干的多尺度特征进行缩放以形成联合多尺度特征图,而是引入了尺度内和多尺度混合的自注意力机制来进行多尺度视觉特征之间的信息传播。
  • 在解码器中,每个对象查询可以通过尺度选择注意力自适应地选择适当尺度的编码特征。对于解码器中的多个协同注意头,都会估计特定的对象中心和尺度,生成不同的空间权重图用于调整协同注意力特征。

  论文的贡献如下:

  • 提出了一种新颖的空间调制协同注意力(SMCA),通过位置约束的目标回归来加速DETR的收敛。没有多尺度特征和多头注意力的基础版SMCA已经可以在 50 个周期时达到41.0 mAP,在 108 个周期时达到42.7 mAP
  • 完整版SMCA进一步集成了多尺度特征和多头空间调制,可以通过更少的训练迭代进一步显着改进和超越DETRSMCA在 50 个周期时可以达到43.7 mAP,在 108 个周期时可以达到45.6 mAP
  • COCO 2017数据集进行了广泛的消融研究,以验证SMCA模块和网络设计。

Spatially Modulated Co-Attention

A Revisit of DETR

DETR:Facebook提出基于Transformer的目标检测新范式 | ECCV 2020 Oral

Spatially Modulated Co-Attention

  • Dynamic spatial weight maps
  • Spatially-modulated co-attention
  • SMCA with multi-head modulation

  多个空间权重图可以强调不同的上下文并提高检测精度。

  • SMCA with multi-scale visual features
  • SMCA box prediction

Experiments

  表 3 和表 4 展示了论文提出的空间调制协同注意力、多头调整注意力和多尺度特征之间的对比实验。

  表 5 与SOTA模型进行对比。

本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-06-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能前沿讲习 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • Spatially Modulated Co-Attention
    • A Revisit of DETR
      • Spatially Modulated Co-Attention
      • Experiments
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档