Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >基于人形机器人的RGB-D SLAM方法比较评估

基于人形机器人的RGB-D SLAM方法比较评估

作者头像
点云PCL博主
发布于 2025-05-24 04:26:30
发布于 2025-05-24 04:26:30
1800
举报
文章被收录于专栏:点云PCL点云PCL

文章: Comparative Evaluation of RGB-D SLAM Methods for Humanoid Robot Localization and Mapping

作者: Amirhosein Vedadi, Aghil Yousefi-Koma, Parsa Yazdankhah, Amin Mozayyan

编辑:点云PCL

摘要

本文针对SURENA-V人形机器人定位与建图任务,对RTAB-Map、ORB-SLAM3和OpenVSLAM三种RGB-D SLAM(同步定位与建图)算法进行了对比评估。实验中,通过在机器人头部安装英特尔® RealSense™ D435 RGB-D摄像头,使机器人沿完整环形路径行进。在定位精度评估中,ORB-SLAM3以0.1073的绝对轨迹误差(ATE)表现最优,其次是RTAB-Map(0.1641)和OpenVSLAM(0.1847)。然而需指出的是,当机器人遇到特征点匮乏的墙面时,ORB-SLAM3和OpenVSLAM均面临里程计精度下降的挑战。值得注意的是,OpenVSLAM在机器人接近起始位置时能够实现闭环检测并完成地图内的重定位。在建图能力评估中,RTAB-Map凭借可生成稠密地图、八叉树地图和占据栅格地图等多样化输出占据优势,而ORB-SLAM3和OpenVSLAM仅能提供稀疏地图。

主要贡献

本文针对人形机器人行走场景,从精度、效率、鲁棒性、可扩展性和适应性等多个维度,对多种RGB-D SLAM方法进行了严格评估。通过深入分析RTAB-Map、ORB-SLAM3和OpenVSLAM等主流技术,系统阐述了其核心原理与算法框架。同时详细介绍了实验评估方案,确保对比分析结果具有可靠性和可复现性。

图1:(a) SLAM算法的世界坐标系、基坐标系与相机坐标系关系示意图 (b) SURENA-V人形机器人头部Intel® RealSense™ D435 RGB-D相机安装位置示意图

主要内容

介绍三种视觉SLAM方法,其简要对比见表1。

A. RTAB-Map算法

RTAB-Map是一种基于图优化的SLAM算法,其突出优势在于与机器人操作系统(ROS)的兼容性,这使其成为机器人应用的理想选择。该算法支持多模态传感器输入,包括RGB-D相机、立体相机及激光雷达,并能融合外部里程计(如编码器里程计或全球定位系统)数据。针对多传感器数据频率差异问题,RTAB-Map内置同步模块确保时空对齐。

该算法特别设计了内存管理模块以应对大规模环境建图需求,通过优化图结构增长方式和计算耗时,显著提升系统可扩展性与鲁棒性。在无外部里程计情况下,算法默认采用GFTT(Good Features to Track)特征检测器提取可追踪特征点,结合BRIEF(Binary Robust Independent Elementary Features)描述符进行特征匹配。为提升匹配效率,采用恒定速度运动模型缩小搜索范围,并通过PnP(Perspective-n-Point)算法计算相机相对于关键帧的位姿变化。

闭环检测采用词袋模型(Bag-of-Words)方法:首先通过视觉里程计特征聚类构建视觉词典,随后将当前帧特征与地图中的视觉单词比对以识别回环。检测到闭环后,采用g2o图优化算法进行位姿图优化。需特别说明的是,若优化后误差仍超过阈值,则该闭环将被判定为无效。优化过程通过迭代最小化误差残差,使回环约束与里程计数据达成一致,从而获得更精确的地图表达。

在建图阶段,RTAB-Map可根据应用需求生成稠密地图、占据栅格地图或稀疏地图等多种地图形式。其中:

  • 稠密地图:包含完整三维点云信息
  • 占据栅格地图:适用于路径规划的二维/三维栅格地图
  • 稀疏地图:仅保留特征点信息的高效表示

B. ORB-SLAM3

ORB-SLAM3是2020年发布的开源SLAM软件库[6],支持单目、双目及RGB-D相机等多种传感器。作为首个采用最大后验估计实现视觉-惯性SLAM的系统,其创新性地引入了多地图"Atlas"架构,包含活跃地图(用于实时帧定位)与非活跃地图(用于重定位、闭环检测及地图融合)。系统运行依托三大并行线程:

  • 1. 跟踪线程:处理传感器数据、估计当前帧位姿,并通过投影匹配特征点最小化误差。视觉-惯性模式下可同步估计机体速度与IMU偏差,并在跟踪丢失时实现全地图重定位。
  • 2. 局部建图线程:管理关键帧与地图点插入、冗余数据剔除、局部BA优化及IMU参数初始化。
  • 3. 闭环与地图融合线程:检测活跃地图与Atlas库的共视区域,执行闭环校正或跨地图融合(融合后生成新活跃地图)。

C. OpenVSLAM

OpenVSLAM是2019年发布的模块化视觉SLAM框架[18],具有以下特性:

  • 多相机模型支持:兼容透视、鱼眼及等距柱面投影模型,支持单目/双目/RGB-D配置
  • 地图管理功能:提供地图存储/加载接口,支持基于预建图的定位任务
  • 跨平台部署:支持浏览器端访问的跨平台可视化

该框架采用基于图优化的间接法,以ORB特征为核心构建三模块架构:

  • 跟踪模块:通过特征匹配与位姿优化实现逐帧相机跟踪,决策关键帧插入
  • 建图模块:执行局部窗口BA优化(Local Bundle Adjustment)构建三维点云地图
  • 全局优化模块:集成闭环检测、位姿图优化(基于g2o)与全局BA

相比ORB-SLAM,其技术优势包括:

  • 独有的等距柱面相机SLAM能力,提供360°全景观测视角
  • 优化的ORB特征提取实现,跟踪耗时降低约30%
  • 完备的地图序列化功能(ORB-SLAM缺失的关键特性)

实验与结果

A. 系统概述

实验平台采用先进系统与技术中心(CAST)研制的SURENA-V人形机器人,该机器人具有44个自由度,身高168厘米,体重68公斤。如图1(b)所示,机器人头部搭载Intel® RealSense™ D435 RGB-D相机(视场角87°×58°)。计算终端采用配备Intel Core i7-11370H四核处理器、8GB GDDR6内存及NVIDIA GeForce RTX 3070显卡的笔记本电脑。通过200Hz控制频率的键盘指令,机器人以每步旋转0.17弧度、平移0.15米的运动参数在平坦地面执行环形路径行走。数据集由RGB-D相机采集,包含640×480分辨率、30帧率的RGB图像与深度图像。

B. 定位精度评估

为评估定位精度,我们采用基于标记物的真值获取方法:在机器人每步行走稳定后,在地面放置标记物,实验结束后通过测量这些标记物的位置与朝向来确定机器人每步终止时刻的真实位姿。随后将算法输出位姿与实测位姿进行对比,并通过公式计算各算法的绝对轨迹误差(ATE)。表II的ATE计算结果表明:ORB-SLAM3定位精度最优(ATE=0.1073),其次为RTAB-Map(0.1641)与OpenVSLAM(0.1847)。

C. 挑战场景与闭环检测评估

人形机器人SLAM实施面临的主要挑战在于步行时固有的机体晃动问题。实验表明,在特征点充足的情况下,三种算法均能保持稳定的定位性能。

当机器人行经特征贫乏的白色墙面区域时(如图3所示),仅RTAB-Map能维持里程计更新,其余两种算法均出现定位丢失。值得注意的是,当机器人返回起始位置附近时,RTAB-Map与OpenVSLAM成功检测到闭环。特别地,OpenVSLAM在闭环检测后展现出在已构建地图中重新定位的能力:通过匹配当前帧与地图关键帧的特征关联,实现位姿校正与地图一致性优化。

图3:各算法里程计输出对比。(A)区域显示当环境特征点减少时,仅RTAB-Map能持续跟踪机器人位姿,其余两种方法均出现跟踪丢失;(B)区域表明OpenVSLAM在检测到闭环后成功实现地图内重定位。

D. 建图能力评估

在建图阶段,ORB-SLAM3和OpenVSLAM均展现出生成稀疏特征地图的能力。如图4所示,这些地图是在算法失去里程计跟踪前获取的,它们通过场景中检测到的特征点分布和密度,直观呈现了机器人感知的环境信息。

与上述两种算法不同,RTAB-Map在建图阶段提供了更丰富的输出选项。图4显示,RTAB-Map能够实时生成环境稠密地图,这种地图通过更高密度的特征点云呈现更精细的环境细节。

图4:各算法建图输出对比。(a) RTAB-Map生成的稠密三维点云地图,(b) OpenVSLAM生成的稀疏特征地图,(c) ORB-SLAM3生成的稀疏特征地图。

此外图5展示了RTAB-Map生成的占据栅格地图。这类地图采用二值化表征(可通行区域/障碍物),特别适用于机器人导航任务。占据栅格地图能为路径规划、避障等自主导航功能提供关键环境信息,有效增强机器人的环境交互能力。

图5:RTAB-Map多模态地图输出 (a) 二维占据栅格地图(黑白二值表示障碍物分布) (b) 稠密点云地图的俯视投影图

总结

本文对三种主流RGB-D SLAM算法(RTAB-Map、ORB-SLAM3和OpenVSLAM)进行了全面评估。在定位精度方面,ORB-SLAM3表现出最优的绝对轨迹误差(ATE)性能,其次是RTAB-Map和OpenVSLAM。在闭环检测能力测试中,当机器人遇到特征点急剧减少的墙面时,RTAB-Map成功维持了位姿跟踪,而其余两种算法均出现跟踪丢失。值得注意的是,OpenVSLAM通过闭环检测后实现了地图内重定位,部分解决了这一问题;相比之下,ORB-SLAM3既未能检测闭环,也无法在丢失跟踪后恢复轨迹。在建图能力评估中,RTAB-Map展现出显著优势,可生成稠密地图、八叉树地图和占据栅格地图等多种形式,而另外两种算法仅能提供稀疏特征地图。

相关阅读:2024年度历史文章大汇总

以上内容如有错误请留言评论,欢迎指正交流。如有侵权,请联系删除

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2025-05-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 点云PCL 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
SLAM机器人开发(二)SLAM技术现状
激光 SLAM 在 SLAM 技术中是较为传统且成熟的。2D 激光 SLAM 技术需要输入 IMU 数据、 里程计数据和 2D 激光雷达数据,经过计算后输出覆盖栅格地图和机器人轨迹。从 20 世纪 90 年 代 EKF-SLAM 的提出开始,陆续出现了 UKF-SLAM、PF-SLAM、FAST-SLAM、GMapping、 Optimal-RBPF等激光 SLAM 算法。其中,GMapping 算法基于 RBPF-SLAM,使用粒子滤波器 (Particle Filter,PF),进一步降低了定位和建图误差,从而成为一种常用的激光 SLAM 算法。
全栈程序员站长
2022/11/10
7080
SLAM机器人开发(二)SLAM技术现状
SLAM算法调研「建议收藏」
  SLAM,即:同步定位与地图创建(Simultaneous Localization and Mapping,SLAM)。它试图解决这样的问题:一个机器人在未知环境中运动,如何通过环境的观测确定自身的运动轨迹,同时构建出环境的地图。SLAM根据硬件设备的不同主要有两种:基于激光雷达的SLAM和基于视觉的SLAM(VSLAM)。
全栈程序员站长
2022/07/04
5.8K0
SLAM算法调研「建议收藏」
SLAM综述(2)-视觉SLAM
SLAM包含了两个主要的任务:定位与构图,在移动机器人或者自动驾驶中,这是一个十分重要的问题:机器人要精确的移动,就必须要有一个环境的地图,那么要构建环境的地图就需要知道机器人的位置。
点云PCL博主
2020/10/26
1.6K0
SLAM综述(2)-视觉SLAM
基于RGBD的slam_rgb算法
首先,我们需要知道什么是SLAM(simultaneous localization and mapping, 详见SlamCN),SLAM,即时定位与制图,包含3个关键词:实时、定位、制图,就是实时完成定位和制图的任务,这就是SLAM要解决的基本任务。按照使用的传感器分为激光SLAM(LOAM、V-LOAM、cartographer)与视觉SLAM,其中视觉SLAM又可分为单目SLAM(MonoSLAM、PTAM、DTAM、LSD-SLAM、ORB-SLAM(单目为主)、SVO)、双目SLAM(LIBVISO2、S-PTAM等)、RGBD SLAM(KinectFusion、ElasticFusion、Kintinous、RGBD SLAM2、RTAB SLAM);视觉SLAM由前端(视觉里程计)、后端(位姿优化)、闭环检测、制图4个部分组成,按照前端方法分为特征点法(稀疏法)、光流法、稀疏直接法、半稠密法、稠密法(详见高翔《视觉slam十四讲》第xx章);按照后端方法分为基于滤波(详见SLAM中的EKF,UKF,PF原理简介)与基于图优化(详见深入理解图优化与g2o:图优化篇与深入理解图优化与g2o:g2o篇)的方法。
全栈程序员站长
2022/10/02
7140
基于RGBD的slam_rgb算法
一文详解SLAM的主要任务和开源框架
SLAM是Simultaneous localization and mapping缩写,意为“同步定位与建图”.
3D视觉工坊
2021/04/13
2.9K0
一文详解SLAM的主要任务和开源框架
两万字 | 视觉SLAM研究综述与未来趋势讨论
摘要:近年来,基于视觉传感器在同时定位与地图构建(SLAM)系统中展示出了显著的性能、准确性和效率。在这里,视觉同时定位与地图构建(VSLAM)方法是指使用相机进行姿态估计和地图生成的SLAM方法。
一点人工一点智能
2022/12/25
1.6K0
两万字 | 视觉SLAM研究综述与未来趋势讨论
ORB-SLAM——a Versatile and Accurate Monocular SLAM System)
本文提出了ORB-SLAM,在大小场景、室内室外环境下都可以实时操作的一种基于特征的单目SLAM系统。系统对复杂的剧烈运动具有鲁棒性,允许宽基线的闭环和重定位,且包含完整的自动初始化。基于最近几年的优秀算法之上,我们从头开始设计了一种新颖的系统,它对所有SLAM任务使用相同的特征:追踪、建图、重定位和闭环。合适策略的存在使得选择的重建点和关键帧具有很好的鲁棒性,并能够生成紧凑的可追踪的地图,只有当场景内容发生变化地图才改变,从而允许长时间操作。本文从最受欢迎的数据集中提供了27个序列的详尽评估。相对于其他最先进的单目SLAM方法,ORB-SLAM实现了前所未有的性能。为了社会的利益,我们将源代码公开。
全栈程序员站长
2022/06/26
8950
ORB-SLAM——a Versatile and Accurate Monocular SLAM System)
漫谈 SLAM 技术(上)
DancingWind
2017/09/11
11.7K0
漫谈 SLAM 技术(上)
针对自主泊车的多相机视觉惯导同时定位与建图方案
文章:Multi-Camera Visual-Inertial Simultaneous Localization and Mapping for Autonomous Valet Parking
点云PCL博主
2023/08/21
6470
针对自主泊车的多相机视觉惯导同时定位与建图方案
MCVO: 一种适用于任意排列多相机的通用视觉里程计
文章:MCVO: A Generic Visual Odometry for Arbitrarily Arranged Multi-Cameras
点云PCL博主
2024/12/10
2120
MCVO: 一种适用于任意排列多相机的通用视觉里程计
一文详解ORB-SLAM3
ORB-SLAM3是一个支持视觉、视觉加惯导、混合地图的SLAM系统,可以在单目,双目和RGB-D相机上利用针孔或者鱼眼模型运行。
3D视觉工坊
2020/12/11
2.4K0
Kimera2: 面对真实路况中强大且具有准确尺度的语义SLAM
文章:Kimera2: Robust and Accurate Metric-Semantic SLAM in the Real World
点云PCL博主
2024/02/06
7280
Kimera2: 面对真实路况中强大且具有准确尺度的语义SLAM
IEEE Access 2022 | 动态场景中基于改进的DeepLabv3+的语义SLAM
标题:Semantic SLAM Based on Improvement DeepLabv3+ in Dynamic Scenarios
3D视觉工坊
2022/06/28
1.7K0
IEEE Access 2022 | 动态场景中基于改进的DeepLabv3+的语义SLAM
视觉/视觉惯性SLAM最新综述:领域进展、方法分类与实验对比
Visual and Visual-Inertial SLAM: State of the Art, Classification,and Experimental Benchmarking
3D视觉工坊
2021/07/27
1K0
增强现实中应用的VSLAM技术综述
文章:A Review of VSLAM Technology Applied in Augmented Reality
点云PCL博主
2024/11/28
3200
增强现实中应用的VSLAM技术综述
OCC-VO:生成面向自动驾驶的基于3D占用栅格的视觉里程计稠密地图
代码:https://github.com/USTCLH/OCC-VO.git (coming soon)
点云PCL博主
2023/10/25
7600
OCC-VO:生成面向自动驾驶的基于3D占用栅格的视觉里程计稠密地图
基于激光雷达强度信息的实时SLAM方案
文章:Real-Time Simultaneous Localization and Mapping with LiDAR intensity
点云PCL博主
2023/08/21
6900
基于激光雷达强度信息的实时SLAM方案
SLAM 深度估计 三维重建 标定 传感器融合
经常有粉丝问视觉/激光/SLAM、三维重建等方向的学习路线,这里我再总结给大家,如下所示:
用户1150922
2022/05/10
1.3K0
SLAM 深度估计 三维重建 标定 传感器融合
机器人slam技术_激光二维扫描仪
上述过程确定了机器人相对于初始时刻以及相对于每帧数据到来时的位姿变换,这个过程就是定位的过程。
全栈程序员站长
2022/09/23
7080
机器人slam技术_激光二维扫描仪
CamMap:基于SLAM地图对不共视相机进行外参标定
文章:CamMap: Extrinsic Calibration of Non-Overlapping Cameras Based on SLAM Map Alignment
点云PCL博主
2023/08/21
8240
CamMap:基于SLAM地图对不共视相机进行外参标定
推荐阅读
相关推荐
SLAM机器人开发(二)SLAM技术现状
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档