动态场景下的slam(1)
这周主要是对动态情景下的slam论文以及开源代码做了下收集,之前也解读过一篇类似的文献
DS-SLAM_ A Semantic Visual SLAM towards Dynamic Environments
该代码也已经开源。
01
1. 首先为什么要针对这一个特定的场景呢?
之前的绝大多数slam都是假设场景是静态的,或者存在少量的静态物体,即用于计算的关联像素点的三维空间点 位置是不变的. 如果视野内的像素点一直处于不断地移动当中, 同时, 这些点参与了位姿计算, 那 么这些点将会不断给系统带来误差, 最终导致定位失败。最坏的情况是, 参与位姿估计的所有像素点均随着相机做相同的运动,进而由 SLAM 估计出的位姿便会一直为 0. 这些slam系统能够通过移除外点,RANSAC模型拟合的方式来提高应对动态物体的鲁棒性。
绝大数基于特征点法的slam系统的走向是如下图的黄色箭头,动态slam的处理流程多了一步动态物体的检测部分,改进也很多是在红色方框中改进。这类方法在对输入图像提取 特征点的同时,对图像进行语义分割,获得人在图像中的像素点位置,再将这些分布在人上面的特征点进行剔除,并使用剔除后相对稳定的特征点进行位姿估计。
如DS-SLAM,不过他还加了一个一致性约束(这个实际上是下面一篇文献综述文章介绍的一个几何约束的方法),他相当于结合了传统的Motion Segmentation以及Semantic Segmentation。考虑到室内环境下,移动的像素点多来自人和动物,所以用的网络也主要是用来分割人
02
开源代码介绍
开源的针对动态情景下的slam有哪些呢,让我们再github上面搜索一下,其实还是挺多的呢...
03
开源的数据集
在找的过程中,好像没有专门针对这种比较拥挤的情况下面的专门数据集,大家做比较的时候还是拿之前那些数据集做性能比较,比如数据集 TUM 的 datasetrgbd_ datasetfreiburg3walking_halfsphere 数据集,
这个数据集是放在仿人机器人身上获取的。
04
文献综述
以下是近年来可能也是第一篇专门针对动态场景下的slam综述性文章,
该篇文章将动态情景下的应用分为了三类:
1.动态鲁棒性slam(这个主要是将运动的物体分割出来,然后只跟踪静态的特征点)
2.动态物体分割与动态物体跟踪(主要做的是计算机视觉任务当中的物体检测与跟踪)
3.动态鲁棒性slam+ 动态物体分割与动态物体跟踪
动态场景下slam的核心思想就是将动态的物体分割出来,只跟踪静态物体的特征 ,因此文章中也给出了几种方法:
同时也给我们列出了一些具体的Motion Segmentation的方法
当然还存在多传感器融合的方式,可通过
05
一些硕士毕业文章
这篇硕士论文主要是把深度学习动态物体检测的检测框架用了进来,但是没有看到轨迹精度的比较。
06
一些近期论文
等待下期预告......
注意
目前微信交流群不断壮大,由于人数太多,目前有两个群,为了鼓励大家分享,我们希望大家能在学习的同时积极分享,将您的问题或者小总结投稿发到群主邮箱主邮箱dianyunpcl@163.com。
以上内容如有错误或者需要补充的,请留言!同时欢迎大家关注微信公众号,积极分享投稿,或者加入3D视觉微信群或QQ交流群。
原创不易,转载请联系群主,注明出处。
THE END
●文章来源 |庄小P (知乎账号同名)
●排版 | 杨滚滚