获取完整原文和代码,公众号回复:10080674898
论文地址: http://arxiv.org/pdf/2109.07982v1.pdf
代码: https://github.com/hku-mars/r3live
来源: 香港大学
论文名称:R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and mapping package
原文作者:Jiarong Lin
内容提要
在本文中,我们提出了一种新的激光雷达-惯性视觉传感器融合框架,称为R3LIVE,它利用激光雷达、惯性和视觉传感器的测量来实现鲁棒和准确的状态估计。R3LIVE包含两个子系统,激光雷达惯性里程计(LIO)和视觉惯性里程计(VIO)。LIO子系统(FASTLIO)利用了来自激光雷达和惯性传感器的测量,并构建了全局地图的几何结构(即3D点的位置)。VIO子系统利用视觉惯性传感器的数据并呈现地图的纹理(即3D点的颜色)。更具体地说,VIO子系统通过最小化帧到地图的光度误差,直接有效地融合了视觉数据。本文开发的系统R3LIVE是在我们之前的工作R2LIVE的基础上开发的,经过了细致的架构设计和实现。实验结果表明,与现有的系统相比,该系统具有更强的鲁棒性和更高的状态估计精度。R3LIVE是一个面向各种可能应用的多功能和精心设计的系统,它不仅可以作为实时机器人应用的SLAM系统,还可以为测量和绘图等应用重建密集、精确、RGB彩色的3D地图。此外,为了使R3LIVE更具可扩展性,我们开发了一系列用于重构和纹理网格的离线实用程序,这进一步缩小了R3LIVE和各种3D应用程序(如模拟器、视频游戏等)之间的差距。我们在Github3上开源R3LIVE,包括所有的代码、软件实用程序和设备的机械设计。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系删除。