01 中文摘要
许多视觉同步定位和映射(VSLAM)系统需要在环境中假设静态特征。然而,移动物体会极大地损害VSLAM系统的性能,因为VSLAM系统是基于静态环境假设的。为应对这一挑战性课题,本文提出了一种基于ORB-SLAM2的动态环境实时鲁棒VSLAM系统。为了减少动态内容的影响,我们将基于深度学习的目标检测方法引入视觉里程计中,然后加入动态目标概率模型,以提高目标检测深度神经网络的效率,提高系统的实时性能。在TUM和KITTI基准数据集上以及在真实环境中进行的实验结果表明,本文提出的方法可显著减少跟踪误差或漂移,增强VSLAM系统在动态场景中的鲁棒性、准确性和稳定性。
02 主要结论
本文提出了一种实时视觉SLAM系统,该系统在具有许多独立运动目标的高度动态环境中运行良好。ORB-SLAM2系统将目标检测和动态目标概率模型结合起来,在高动态环境下有了显著改进。此外,针对目标检测难以获得与目标匹配较好的边界框这一固有问题,本文提出了一个可有效解决此问题的算法。通过这种方法可以达到与语义分割方法的像素精度相近的效果,并且在性能上比语义分割方法更快。最后,实验结果说明,本文提出的方法准确性更高,算法实现的效率和可用性较好。这表明我们能够处理具有挑战性的动态目标,并大幅改善视觉里程计估计。因此,在高度动态的场景中,可获得更稳健、更准确的定位和映射结果。
尽管如此,研究仍有改进空间。在本文提出的视觉SLAM系统中,用于目标检测线程的深度神经网络是一种有监督的方法。也就是说,当训练场景与实际场景之间存在显著差异时,检测器模型可能很难预测正确的结果。在未来的研究中,可以通过采用自我监督或无监督的深度学习方法来克服这一问题。
03 论文选图