在最初的ORB-SLAM2中,关键点分为两类:近点和远点,其中近点是深度确定性高的点,可用于缩放、平移和旋转估计,而远点仅用于旋转估计,因此信息量较少.由于从Livox lidars获得的稠密、长距离和精确的点与相机图像相融合...,如图3c和图3d所示.然后根据输出执行进一步的跟踪线程操作,如ORB特征提取、关键点生成.由于激光雷达持续扫描环境,每个数据点都是在略有不同的时间戳获得的,需要IMU进行校正.这不同于照相机,而图像是在几乎一瞬间获得的...整个校准算法的结构如图7所示.首先通过使用反射率和深度值的初始外部参数将密集点云投影到成像平面上,然后执行轮廓提取以与相机图像轮廓进行比较.代价函数由一种改进的ICP算法构造,可以通过Ceres进行优化...将激光雷达点云投影到2D图像后,我们对所有图像进行直方图均衡化,并使用Canny边缘检测器提取边缘[18]。从深度图像和反射率图像提取的边缘被合并,因为它们都来自相同的激光雷达,但信息不同。...最后,获取相机图像和激光雷达图像中存在的一些特征边缘,并根据最近边缘距离进行边缘匹配。
初始匹配结果如图7右下方所示,其中橙色线是相机图像的边缘,蓝色线是地平线图像的边缘,红色线是最近点之间的距离。