(u,v)转换为三维坐标(x,y,z),计算如下:
?...注意:可以使用Point Cloud编码器-解码器网络来学习从(u,v,d)到(x,y,z)的映射,因此在测试阶段可以不再需要标定文件(因为在点云生成阶段引入的误差远远小于深度图本身包含的噪声)。...然后使用轻量级网络预测RoI的中心δ , 用它来更新点云:
?
然后,我们选择PointNet作为3D检测骨干网估计3D对象的编码中心(x, y, z),大小(h、w、l)和航向角θ。...将补充的RGB信息聚合到点云,通过公式5将信息添加到生成的点云中:
?
其中D为输出对应输入点RGB值的函数。这样,这些点被编码为6D向量:[x, y, z, r, g, b]。...在8个Box的(x, y, z)坐标上直接计算平滑的L1损失。