论文地址: http://arxiv.org/pdf/2111.07529v1.pdf
来源: Birla Institute of Technology and Science,Harvard University
论文名称:Object Propagation via Inter-Frame Attentions for Temporally Stable Video Instance Segmentation
原文作者:Anirudh S Chakravarthy
内容提要
视频实例分割的目的是检测、分割和追踪视频中的物体。目前的方法是将图像层面的分割算法扩展到时间域。然而,这会导致掩码在时间上不一致。在本文中,发现了由于时间稳定性导致的掩码质量是一个性能瓶颈。受此启发,提出一种视频实例分割方法,以缓解因检测缺失而产生的问题。由于不能简单地使用空间信息来解决,因此利用帧间关注的时间背景。这使得该网络能够利用邻近帧的框预测来重新关注缺失的物体,从而克服了缺失检测问题。本文提出方法大大超过了使用Mask R-CNN为主干的最先进的算法,在YouTube-VIS基准上取得了35.1% mAP。此外,该方法是完全在线的,不需要未来的frames。
主要框架及实验结果


声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。