Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >LVBA:用于RGB点云建图的LiDAR-视觉联合优化

LVBA:用于RGB点云建图的LiDAR-视觉联合优化

作者头像
点云PCL博主
发布于 2024-11-25 01:30:43
发布于 2024-11-25 01:30:43
4840
举报
文章被收录于专栏:点云PCL点云PCL

文章:LVBA: LiDAR-Visual Bundle Adjustment for RGB Point Cloud Mapping

作者:Rundong Li, Xiyuan Liu, Haotian Li, Zheng Liu, Jiarong Lin, Yixi Cai, and Fu Zhang

编辑:点云PCL

摘要

带有准确颜色的点云地图在机器人和测绘应用中至关重要。然而,目前用于生成RGB彩色地图的方法主要依赖基于滤波估计或滑动窗口优化的实时定位,这些方法可能在精度和全局一致性上有所欠缺。在本研究中,我们提出了一种新颖的全局LiDAR-视觉联合优化方法,称为LVBA(LiDAR-Visual Bundle Adjustment),以提升RGB点云建图质量。LVBA首先通过全局LiDAR优化调整LiDAR位姿,随后结合点云中的平面特征进行光度视觉优化,从而优化相机位姿。此外为了解决在优化问题中由于地图点遮挡引发的挑战,我们在LVBA中实现了一种创新的LiDAR辅助全局可见性算法。为了验证LVBA的有效性,我们通过与现有最先进方法(如R3LIVE和FAST-LIVO)的对比实验,全面评估了其建图质量。实验结果表明,LVBA能够高效地重建高保真、精确的RGB点云地图,表现优于同类方法。

主要贡献

本文提出了LiDAR-视觉联合优化方法(LVBA),用于优化相机和LiDAR的位姿,LVBA分为两个阶段:首先通过LiDAR联合优化(LiDAR BA)优化LiDAR的位姿,然后利用LiDAR点云提供的几何先验,通过光度联合优化方法优化相机位姿。本文主要贡献:

  • 光度联合优化方法,本文提出了一种基于LiDAR点云先验的光度联合优化方法,用于估计相机状态,即使在时间对齐不准确或外参未精细校准的情况下,也能提高点云上色质量。
  • LiDAR辅助场景点生成和可见性确定算法:我们提出了一种包含全局相机帧共视性的算法,有助于构建全局光度视觉联合优化问题。
  • 开发了一个工具链,用于评估彩色点云地图的精度与一致性。借助该工具链,对LVBA与当前最先进的LiDAR-视觉-惯性建图方法进行了广泛评估。实验结果表明,LVBA在精确和一致地重建彩色点云地图方面优于现有技术(参见图1)。

图1 使用我们的方法优化的RGB点云地图。图中数据采集自香港大学庄月明物理楼,该方法有效优化了LiDAR和相机的位姿,在建图过程中实现了高精度和高一致性。

内容概述

系统概述

本文提出的LiDAR-视觉联合优化(LVBA)系统的概览如图2所示。LVBA以LiDAR扫描数据、相机图像及其在同一世界参考框架下的粗略位姿为输入,这些通常由前端方法提供。系统包含两个主要部分:LiDAR联合优化部分和视觉联合优化部分。首先,LiDAR状态通过LiDAR联合优化方法进行优化,生成最佳LiDAR位姿估计和平面特征。随后利用LiDAR扫描数据和提取的平面特征点作为先验信息,通过迭代的粗到精光度联合优化方法对相机位姿进行优化。

图2. 系统概览,我们的系统由LiDAR联合优化(LiDAR BA)和视觉联合优化(Visual BA)两部分组成。

LiDAR联合优化

在LVBA中采用名为BALM的LiDAR联合优化方法来优化LiDAR的位姿,该方法通过利用从LiDAR点云中提取的边缘和平面特征,将LiDAR联合优化问题进行建模。优化过程的目标是最小化扫描中每个点与其邻近边缘或平面之间的欧几里得距离。我们使用BALM来优化每次LiDAR扫描的6自由度(6 DoF)位姿,同时构建一个包含从LiDAR点中提取的平面特征的体素地图,该地图将在后续的视觉联合优化过程中使用。

基于LiDAR先验的视觉联合优化

视觉联合优化(BA)是LVBA系统的重要部分,它通过生成视觉特征点(称为“场景点”)并将场景点投影到多个图像帧上,最小化它们之间的光度差异来构建优化目标函数。本模块分为几个关键步骤,包括局部场景点的生成和可见性判断、全局场景点的选择和可见性判定,以及光度误差的构建和优化。以下为详细总结:

局部场景点生成:局部场景点的选择以丰富的光度细节为优先,这有助于提升优化约束的有效性:

  • 图像帧被划分为网格单元,LiDAR捕获的平面特征点被投影到这些网格中。
  • 投影点需满足一定条件(例如视点方向与表面法向量的对齐程度),以保证视图质量。
  • 使用DoG(高斯差分)方法计算投影点的强度梯度分数,每个网格中分数最高的点被选为局部场景点。
  • 对于纹理不足(如光滑表面)导致分数较低的网格,则不选取点。

局部可见性判断:生成局部场景点后,需确定哪些图像帧可观察到这些点:

  • 只考虑参考帧附近的滑动窗口内的目标帧,以简化视差计算和遮挡检测。
  • 使用视域(FoV)检查代替复杂的射线追踪,但可能对前景与背景交界处的点存在误判。为此,通过计算参考帧和候选目标帧的光度差异来验证点的可见性。
  • 确保视点方向接近点表面法向量,以进一步筛选目标帧。

全局场景点选择与可见性生成:为了提供更多全局约束,全局场景点用于优化相隔较远的相机帧:

  • 利用LiDAR扫描数据构建全局可见性体素地图,每个体素记录其可见的相机帧集合。
  • 通过选择观察质量最高的局部场景点,将其作为对应体素的全局场景点。观察质量通过点在参考图像上的投影面积来衡量,面积越大,质量越高。
  • 依托可见性体素地图,确定全局场景点的候选目标帧集合,并使用与局部可见性类似的方法进一步筛选真实目标帧。

图3. LiDAR辅助的全局可见性地图。

光度误差公式化

  • 光度误差通过比较参考帧和目标帧上场景点的光度值差异构建。
  • 利用针孔相机模型将场景点投影到参考帧和目标帧,通过单应性变换对场景点周围的图像块进行匹配,确保光度一致性。
  • 引入曝光时间和协方差矩阵的优化模型,提升光度误差计算的鲁棒性和精确度。

Levenberg-Marquardt优化

  • 通过Levenberg-Marquardt优化算法,最小化所有场景点在所有目标帧中的光度误差。
  • 采用逐步细化的优化策略,从图像金字塔的顶层开始逐步优化到原始分辨率,以增强对初始估计不准确的适应能力。
  • 在每次迭代中,利用上一级优化结果生成新的场景点并更新可见性判断。

图4. 光度误差公式化

实验

实验设置

在实验中,将我们的 LVBA 与其他先进的 LiDAR-视觉(惯性)传感器融合方法进行了比较,包括 R3LIVE、FAST-LIVO和 Colmap-PCD。我们在三个数据集上进行了评估,分别是 R3LIVE 数据集、FAST-LIVO 数据集和 MaRS-LVIG 。我们对所有三个数据集进行了建图精度评估,并在 MaRS-LVIG 数据集上进行了轨迹精度评估,该数据集提供了地面真实轨迹。对于 Colmap-PCD 和 LVBA,在评估 R3LIVE 数据集和 MaRS-LVIG 数据集时,利用 R3LIVE 提供初步估计,而在评估 FAST-LIVO 数据集时,使用 FAST-LIVO 提供初步估计。由于这些数据的采集频率较高,通常为 10 Hz,对原始数据上的所有帧位姿进行优化对 LVBA 和 Colmap-PCD 这两种全局优化方法来说计算负担较重。为了限制计算负荷,提取了关键帧。此外由于某些序列对于 Colmap-PCD 和 LVBA 来说过于冗长,导致时间和内存开销过大,将这些序列分成了子序列,并将每个子序列的评估结果的平均值作为最终结果。

建图评估

1. 评估方法:为评估优化结果的映射精度和一致性,使用了一种着色与渲染算法。首先,通过 LiDAR 扫描和相机图像创建 RGB-辐射点云。每个 LiDAR 点的辐射值根据其最近的相机帧来计算,使用相对曝光时间 ϵ\epsilonϵ 进行调整。渲染出的图像使用峰值信噪比(PSNR)和结构相似性指数度量(SSIM)评估与原始图像的差异。

2. 评估设置:我们对三个数据集进行了映射精度评估。由于 FAST-LIVO 在 R3LIVE 数据集上的时间同步要求未满足,因此未在该数据集上评估 FAST-LIVO。此外,LVBA 和 Colmap-PCD 仅估计关键帧的位姿,因此仅在关键帧上评估了 R3LIVE 和 FAST-LIVO。为了评估全局场景点选择和相对曝光时间估计的有效性,分别进行了没有全局场景点约束("w/o GSP")和没有曝光时间估计("w/o RET")的实验。

3. 比较结果:与 R3LIVE 和 FAST-LIVO 相比,LVBA(完整版)在所有测试序列中显著提高了映射精度。R3LIVE 和 FAST-LIVO 基于 ESIKF 框架,无法有效纠正历史误差,导致长序列中的图像颜色模糊。而 LVBA 通过优化所有图像帧的状态估计,确保了全局一致性和较低的颜色模糊。与 Colmap-PCD 相比,LVBA(完整版)在大多数序列中表现更好,尤其是在处理曝光时间变化较大的序列时,LVBA 的表现明显优于 Colmap-PCD。此外,我们的相对曝光时间估计能够有效捕捉实际曝光时间的趋势,尽管模型简化导致估计值不完全准确,但仍表现出较好的估计能力。

图 7. 消融研究的可视化。(a) 和 (b) 显示了相机捕获的原始图像。(a1) 和 (b1) 显示了原始图像的细节。(a2) 和 (b2) 显示了我们完整算法生成的结果。(a3) 和 (b3) 展示了去除全局场景点后的结果。(a4) 和 (b4) 展示了去除相对曝光时间估计后的结果。该序列有效地展示了我们方法中每个组件对整体结果的影响和贡献。

图 8. 估计的相对曝光时间与真值的比较

总结

本文介绍了一种LiDAR-视觉束调整框架,旨在提高位姿估计精度并确保LiDAR-相机平台的全球RGB建图一致性。通过将相机的光度束调整(BA)与几何先验相结合,我们实现了相机位姿与LiDAR点云的高精度对齐。LiDAR辅助可见性判定算法使得该BA方法能够有效地应用于全局。通过严格的评估,我们证明了我们的方法在多个数据集上超越了其他最先进的方法,既提高了位姿估计精度,又确保了建图一致性。展望未来计划结合IMU预积分和更先进的优化技术,进一步提升系统性能。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-11-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 点云PCL 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
OmniColor: 基于全局相机位姿优化给LiDAR点云着色方法
文章:OmniColor: A Global Camera Pose Optimization Approach of LiDAR-360Camera Fusion for Colorizing Point Clouds
点云PCL博主
2024/04/25
1.1K0
OmniColor: 基于全局相机位姿优化给LiDAR点云着色方法
GS-LIVO:基于高斯泼溅的实时LiDAR、惯性和视觉多传感器融合里程计
文章:GS-LIVO: Real-Time LiDAR, Inertial, and Visual Multi-sensor Fused Odometry with Gaussian Mapping
点云PCL博主
2025/02/10
7860
GS-LIVO:基于高斯泼溅的实时LiDAR、惯性和视觉多传感器融合里程计
LIR-LIVO:一种轻量级、鲁棒的激光雷达/视觉/惯性里程计,具备对光照变化具有适应性的深度特征
文章:LIR-LIVO: A Lightweight,Robust LiDAR/Vision/Inertial Odometry with Illumination-Resilient Deep Features
点云PCL博主
2025/03/07
2920
LIR-LIVO:一种轻量级、鲁棒的激光雷达/视觉/惯性里程计,具备对光照变化具有适应性的深度特征
基于多传感器融合的定位和建图系统
IMU(加速度计)的测量频率高,即可以精确的测量到物体的姿态运动,对运动灵敏,同时成本低,体积小,抗干扰能力强,基本上在多传感器融合中是一个必备的传感器。
一点人工一点智能
2023/03/18
1.2K0
基于多传感器融合的定位和建图系统
旷视科技和东北大学联合提出:多LiDAR与相机系统的无靶标内外参联合标定方法
文章:Targetless Intrinsics and Extrinsic Calibration of Multiple LiDARs and Cameras with IMU using Continuous-Time Estimation
点云PCL博主
2025/01/13
5730
旷视科技和东北大学联合提出:多LiDAR与相机系统的无靶标内外参联合标定方法
R3LIVE:一个实时鲁棒、带有RGB颜色信息的激光雷达-惯性-视觉紧耦合系统(香港大学)
R3LIVE: A Robust, Real-time, RGB-colored, LiDAR-Inertial-Visual tightly-coupled state Estimation and mapping package
计算机视觉
2021/10/12
2.4K0
激光雷达视觉惯性融合框架:R3live++
今天给大家分享一篇多传感融合定位的工作:R3live++。这是继R3live后的第二个版本。这项工作提出的激光雷达视觉惯性融合框架实现了鲁棒和准确的状态估计,同时实时重建光度地图。
一点人工一点智能
2023/07/05
1.1K0
激光雷达视觉惯性融合框架:R3live++
Colmap-PCD:一种用于图像到点云配准的开源工具
文章:Colmap-PCD: An Open-source Tool for Fine Image-to-point cloud Registration
点云PCL博主
2023/11/22
2.2K0
Colmap-PCD:一种用于图像到点云配准的开源工具
在资源受限平台上运行FAST-LIVO2
文章:FAST-LIVO2 on Resource-Constrained Platforms: LiDAR-Inertial-Visual Odometry with Efficient Memory and Computation
点云PCL博主
2025/02/08
8750
在资源受限平台上运行FAST-LIVO2
用于机器人定位和建图的增强型 LiDAR-惯性 SLAM 系统
粒子滤波也是一个十分经典的算法,它与卡尔曼滤波的不同之处在于卡尔曼滤波假设概率分布是高斯分布,然后在计算后验概率(pdf)时,利用正态分布的性质,可以计算出来;而粒子滤波的后验概率分布是通过蒙特卡洛方法采样得到的。蒙特卡洛方法很清楚的一点是采样的粒子越多,概率分布越准确,但是计算速度会下降。也就是说如何分布你的有限个数的采样粒子来得到更为准确的后验概率分布是粒子滤波一直在做的事情。在本文中粒子滤波的改善一个是局部采样,另一个是采样时更好的概率分布来得到更精确的后验概率。在闭环检测这里则是应用了深度学习的方法。具体实现可以随笔者一起看下面的文章。
3D视觉工坊
2023/04/29
5840
用于机器人定位和建图的增强型 LiDAR-惯性 SLAM 系统
RAL2021|基于快速直接的立体视觉SLAM
Jiawei Mo1、Md Jahidul Islam2 和 Junaed Sattar3*
3D视觉工坊
2022/04/13
6540
RAL2021|基于快速直接的立体视觉SLAM
ICRA 2021|用于LiDAR里程计和建图的Poisson表面重建
Poisson Surface Reconstruction for LiDAR Odometry and Mapping
计算机视觉
2021/07/05
1.1K0
一次采集无需特定目标的LiDAR-相机外参自动化标定工具箱
文章:General, Single-shot, Target-less, and Automatic LiDAR-Camera Extrinsic Calibration Toolbox
点云PCL博主
2023/08/21
1.1K0
一次采集无需特定目标的LiDAR-相机外参自动化标定工具箱
AR Mapping:高效快速的AR建图方案
本文仅做学术分享,如有侵权,请联系删除。欢迎各位加入免费知识星球,获取PDF论文,欢迎转发朋友圈。内容如有错误欢迎评论留言,未经允许请勿转载!
点云PCL博主
2021/07/23
1.6K0
AR Mapping:高效快速的AR建图方案
无人车业务中的视觉三维重建
高精地图也称为高分辨率地图(High Definition Map, HDMap)或者高度自动驾驶地图(Highly Automated Driving Map, HAD Map)。近些年,随着自动驾驶技术以及业务的蓬勃发展,高精地图成为了实现高等级自动驾驶必不可少的数据。
美团无人配送
2021/11/02
2.3K0
用于自动驾驶的大规模三维视觉语义地图的构建
文章:Vision-based Large-scale 3D Semantic Mapping for Autonomous
点云PCL博主
2023/08/21
7770
用于自动驾驶的大规模三维视觉语义地图的构建
Lidar-SLAM的历史与现状
文章:LiDAR-based SLAM for robotic mapping: state of the art and new frontiers
点云PCL博主
2023/11/30
8150
Lidar-SLAM的历史与现状
基于在线光度校准的混合稀疏单目视觉里程计
文章:Hybrid sparse monocular visual odometry with online photometric calibration
点云PCL博主
2023/08/21
2960
基于在线光度校准的混合稀疏单目视觉里程计
激光视觉惯导融合的slam系统
FAST-LIVO: Fast and Tightly-coupled Sparse-Direct LiDAR-Inertial-Visual Odometry
3D视觉工坊
2023/04/29
6590
激光视觉惯导融合的slam系统
每日学术速递10.12
1.Neural Impostor: Editing Neural Radiance Fields with Explicit Shape Manipulation
AiCharm
2023/10/19
2850
每日学术速递10.12
推荐阅读
相关推荐
OmniColor: 基于全局相机位姿优化给LiDAR点云着色方法
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档