Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >汇总|3D点云目标检测算法

汇总|3D点云目标检测算法

作者头像
计算机视觉
发布于 2020-11-11 09:31:42
发布于 2020-11-11 09:31:42
2.4K0
举报

前言

前面总结了几种基于激光雷达点云数据的3D目标检测算法,还有一些算法不再单独列出,这里做个简单总结来分享下!

基于激光雷达点云的3D目标检测算法

1、End-to-End Multi-View Fusion for 3D Object Detection in Lidar Point Clouds(Waymo和Google联合提出)

主要提出了一种新的端到端多视图融合(MVF)算法,该算法能有效地学习利用透视图和点云信息。具体地说,论文介绍了动态体素化,它与现有的体素化方法相比有四个优点:

  • 消除了预先分配具有固定大小的张量需要;
  • 克服了由于随机点/体素丢失引起的信息损失;
  • 产生确定的体素嵌入和更稳定的检测结果;
  • 建立点和体素之间的双向关系,这为跨视点特征融合奠定了基础;

通过采用动态体素化,提出的特征融合体系结构可以使每个点学习融合来自不同视图的信息。MVF对点进行操作,可以自然地从激光雷达点云扩展到其他方法。在最新发布的Waymo开放数据集和KITTI数据集上广泛评估了MVF模型,并证明它比可比较的单视图点柱baseline显著提高了检测精度。

2、LaserNet: An Efficient Probabilistic 3D Object Detector for Autonomous Driving(Uber提出, CVPR2019)

本文提出了一种基于激光雷达数据的自动驾驶三维目标检测算法LaserNet。这项工作提出了一种有效的方法来学习一个端到端的概率三维目标检测器。当有足够的训练数据时,通过使用一个小而密集的范围图像,而不是一个大而稀疏的鸟瞰图像,可以在显著降低运行时间的情况下获得最新的检测性能。该方法不仅为每个检测产生一个类概率,而且在检测边界盒上产生一个概率分布。本文提出的方法是第一个通过模拟包围盒角点的分布来捕捉检测的不确定性。通过估计检测的精度,该方法可以使全自动驾驶系统中的下游部件在具有不同不确定性的物体周围表现出不同的行为。

3、BirdNet: a 3D Object Detection Framework from LiDAR information

本文针对3D检测任务,提出了一种面向激光雷达数据的新的网络框架BirdNet。首先,将激光雷达数据投影到一种新的用于鸟瞰投影的cell编码中。然后,通过一个最初设计用于图像处理卷积神经网络来估计目标在平面上的位置和方向。最后,在后处理阶段计算面向3D的检测任务。

4、LMNet: Real-time Multiclass Object Detection on CPU using 3D LiDAR(英特尔提出)

本文描述了一种优化的单级深层卷积神经网络LMNet,它只使用点云数据来检测城市环境中的目标。此功能使该方法能够在一天中的任何时间和照明条件下工作。提出的网络结构采用扩展卷积,随着深度的增加,感知场逐渐增大,计算时间减少约30%。网络输入包括无组织点云数据的五种透视表示,网络为每个点输出对象贴图和边界框偏移值。实验表明,使用反射、范围和三个轴上的每个轴上的位置有助于改善输出边界框的位置和方向。在KITTI数据集评估服务器的帮助下进行了定量评估,获得了最快的处理速度,使其适合实时应用。本文在一辆装有Velodyne HDL-64的实车上实现并测试了网络。基于桌面GPU实现了高达50 FPS的执行速度,在单个Intel Core i5 CPU上实现了高达10 FPS的执行速度。

5、PIXOR: Real-time 3D Object Detection from Point Clouds(Uber和多伦多大学提出)

本文在自主驾驶环境下,研究了基于点云的实时三维目标检测问题。计算速度至关重要,因为检测是安全的必要组成部分。然而,由于点云的高维性,现有的方法在计算上是昂贵的。论文通过从鸟瞰图(BEV)中表示场景来更有效地利用3D数据,并提出了PIXOR,一种proposal-free的单级检测器,它输出从像素级神经网络预测解码的定向3D对象估计。网络特别设计了输入表示、网络结构和模型优化,以平衡高精度和实时性。论文在两个数据集上验证了PIXOR:KITTI-BEV目标检测数据集和large-scale 3D车辆检测基准。两个数据集表明,所提出的检测器在平均精度(AP)方面明显优于其他最先进的方法,而且速度上仍高于28fps。

6、PointRCNN: 3D Object Proposal Generation and Detection from Point Cloud(香港大学提出,CVPR2019)

本文提出了一种基于点云的三维目标检测方法。整个框架由两个阶段组成:第一阶段用于自下而上的3D region proposal,第二阶段用于在标准坐标系中细化proposal以获得最终的检测结果。第一阶段子网络没有像以前的方法那样从RGB图像或投影点云到鸟瞰图或体素中生成建议,而是通过将整个场景的点云分割成前景点和背景,以自下而上的方式直接从点云生成少量高质量的3D建议。第二阶段子网络将每个方案的集合点转换为规范坐标,以学习更好的局部空间特征,并结合第一阶段学习到的每个点的全局语义特征,进行精确的box细化和置信度预测。在KITTI数据集的三维检测基准上进行的大量实验表明,本文提出的架构仅使用点云作为输入,其性能优于最新的方法,并且具有显著的边缘。

7、YOLO3D: End-to-end real-time 3D Oriented Object Bounding Box Detection from LiDAR Point Cloud

基于YOLOv2进行改进的文章,主要将3D点云在二维透视图像空间进行映射,并在在二维透视图像空间的一次回归元结构成功的基础上,对其进行扩展,从LiDAR点云生成面向三维对象的bounding box。本文的主要贡献是将YOLO v2的损失函数扩展为包含偏航角、笛卡尔坐标系中的3D box中心和box高度的直接回归问题。文章创新度不大,但是效果和速度值得借鉴:Titan X GPU上实现了实时性能(40 fps)。

8、FVNet: 3D Front-View Proposal Generation for Real-Time Object Detection from Point Clouds(上海交大&腾讯优图)

与二维点云相比,原始点云和稀疏点云的三维目标检测得到的处理要少得多。

本文提出了一种新的基于点云的三维前视图生成和目标检测框架FVNet。它包括两个阶段:前视图proposal的生成和三维bounding box参数的估计。本文没有从相机图像或鸟瞰图中生成proposal,而是先将点云投影到柱面上,生成保留丰富信息的前视特征图。然后引入一个region proposal网络,从生成的地图中预测三维区域proposal,并进一步从整个点云中提取出感兴趣的对象。最后,论文提出了另一个网络,从提取出的目标点中提取点特征,并在标准坐标系下回归最终的三维bounding box参数。FVNet以每个点云样本12毫秒的速度实现实时性能。在三维检测基准KITTI上进行的大量实验表明,所提出的结构在精度上和速度上优于以相机图像或点云为输入的最新技术。

本文仅做学术分享,如有侵权,请联系删文。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-10-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 计算机视觉工坊 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(上)
【导读】上周,我们在《激光雷达,马斯克看不上,却又无可替代?》一文中对自动驾驶中广泛使用的激光雷达进行了简单的科普,今天,这篇文章将各大公司和机构基于激光雷达的目标检测工作进行了列举和整合。由于文章列举方法太多,故作者将其分成上下两部分,本文为第一部分。
AI科技大本营
2019/09/19
2.7K0
值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(上)
融合点云与图像的环境目标检测研究进展
在数字仿真技术应用领域,特别是在自动驾驶技术的发展中,目标检测是至关重要的一环,它涉及到对周围环境中物体的感知,为智能装备的决策和规划提供了关键信息。
一点人工一点智能
2024/03/22
1.8K0
融合点云与图像的环境目标检测研究进展
【美团技术解析】一文教你读懂3D目标检测
技术解析是由美团点评无人配送部技术团队主笔,每期发布一篇无人配送领域相关技术解析或应用实例,本期为您带来的是3D目标检测系列综述
美团无人配送
2019/04/26
5.1K0
【美团技术解析】一文教你读懂3D目标检测
端到端基于图像的伪激光雷达3D目标检测
标题:End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection
3D视觉工坊
2021/04/13
9090
端到端基于图像的伪激光雷达3D目标检测
【美团技术解析】自动驾驶中的激光雷达目标检测(下)
技术解析是由美团点评无人配送部技术团队主笔,每期发布一篇无人配送领域相关技术解析或应用实例,上期我们讲了激光雷达相关原理和非深度学习的目标检测算法,这一期我们来讲讲基于深度学习相关算法
美团无人配送
2019/04/26
1.2K0
【美团技术解析】自动驾驶中的激光雷达目标检测(下)
从2D到3D的目标检测综述
论文阅读模块将分享点云处理,SLAM,三维视觉,高精地图相关的文章。公众号致力于理解三维视觉领域相关内容的干货分享,欢迎各位加入我,我们一起每天一篇文章阅读,开启分享之旅,有兴趣的可联系微信dianyunpcl@163.com。
点云PCL博主
2020/11/19
2.1K0
从2D到3D的目标检测综述
基于点云 / RGBD的3D视觉检测技术
3D视觉技术相较于2D视觉能获取更丰富更全面的环境信息,已经成为机器人导航、无人驾驶、增强/虚拟现实、工业检测等领域的关键技术.当前基于2D的的计算机视觉技术日趋成熟,在很多领域取得了很不错的进展,但我们真实的世界是三维空间,利用2D的技术对真实世界进行建模存在先天的缺陷——深度信息缺失,我们不能从2D图片中获得物体的绝对尺度和位置,而这一点在点云中不会存在问题.“从单幅图像到双目视觉的3D目标检测算法”介绍了基于单目(monocular)视觉以及双目(binocular)视觉的3D目标检测算法,单目做3D检测完全是数据驱动,通过机器学习模型结合摄影几何的约束去拟合3D空间的数据分布;双目视觉会有额外的视差信息,可以重建出景深信息,所以可以得到比单目视觉更强的空间约束关系,在3D目标检测任务重的精度相比单目会更好.
SIGAI学习与实践平台
2019/08/22
2.8K0
基于点云 / RGBD的3D视觉检测技术
值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(下)
这是一个称为FVNet的框架,从点云生成3D前视图提议和目标检测。它包括两步:生成前视图提议和估计3D边框参数。
AI科技大本营
2019/09/25
1.3K0
值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(下)
点云目标检测已有成果速览
基于鸟瞰图的方法:MV3D将Li-DAR点云投射到鸟瞰图上,并为3D边界框proposal训练一个region proposal网络(RPN)。 然而,该方法在检测诸如行人和骑车人等小物体方面滞后,并且不能容易地适应具有垂直方向上的多个物体的场景。AVOD同样利用点云投影数据,克服了上述缺点。在KITTI竞赛的排行榜上目前排名第2.
点云乐课堂
2020/05/18
5230
汇总|3D目标检测文章(CVPR2020)
今年CVPR20-paper-list前几天已经出了,所以这里做一点大致的综述介绍在CVPR20上在3D目标检测的一些文章。如下图所示,3D目标检测按照大方向可以分为室外和室内的目标检测,室内场景数据集一般有ScanNet等,该领域研究比较少,笔者注意到的第一篇文章是来自FAIR的voteNet,采用霍夫投票机制生成了靠近对象中心的点,利用这些点进行分组和聚合,以生成box proposals。今年在CVPR20上也至少有两篇该文章的后续工作,分别是来自pointnet之父的Imvotenet,地址是:https://arxiv.org/pdf/2001.10692.pdf;另外一篇MLCVNet来自南京大学和卡迪夫大学的联合工作 ,文章地址:https://arxiv.org/pdf/2004.05679,该文章在vote的基础上利用自注意力机制融合Multi-scale的特征。 此外,在室外场景的目标检测中,可以大致按照输入分为lidar-input,image-input和multi-sensors-fusion的研究工作。
3D视觉工坊
2020/12/11
9240
PointPillar:利用伪图像高效实现3D目标检测
最近几年点云的三维目标检测一直很火,从早期的PointNet、PointNet++,到体素网格的VoxelNet,后来大家觉得三维卷积过于耗时,又推出了Complex-yolo等模型把点云投影到二维平面,用图像的方法做目标检测,从而加速网络推理。
3D视觉工坊
2021/08/24
3.8K0
PointPillar:利用伪图像高效实现3D目标检测
面向自动驾驶的三维目标检测研究综述
文章:3D Object Detection for Autonomous Driving: A Survey
点云PCL博主
2022/02/10
1.4K0
面向自动驾驶的三维目标检测研究综述
【系列文章】面向自动驾驶的三维点云处理与学习(5)
这篇文章在可以说是很完整的介绍了点云在自动驾驶中各个模块的角色,从宏观的分模块的介绍了点云在自动驾驶中的作用与应用,看完整篇文章,将不仅对自动驾驶技术有了更为全面的理解,并理解点云在自动驾驶中的重要性,这里介绍的高精地图的创建以及定位感知等模块介绍是自动驾驶领域的核心技术,比如在介绍的定位模块的两种定位方式的时候就介绍了不同场景下的使用语义的几何信息以及点云强度信息进行定位的方法时,完全对得上apollo自动驾驶方案,让读者收获颇多。这里博主决定将其完整的翻译过来分享给更多感兴趣的朋友。
点云PCL博主
2021/03/08
6890
【系列文章】面向自动驾驶的三维点云处理与学习(5)
论文翻译:Deep Learning on Radar Centric 3D Object Detection
即使许多现有的3D目标检测算法主要依赖于摄像头和LiDAR,但camera和LiDAR容易受到恶劣天气和光照条件的影响。radar能够抵抗这种情况。近期研究表明可以将深度神经网路应用于雷达数据。本论文提出一种基于深度学习的radar 3D 目标检测。据我们所知,我们是第一个展示基于深度学习的radar 3D 目标检测模型,该模型是在雷达的公共数据集上训练所得。为了克服缺乏雷达标记数据的问题,我们利用大量的LiDAR点云数据,将其转换为类似radar的点云数据和有效的雷达数据增强技术。
yzh
2020/11/09
1.1K0
一文览尽LiDAR点云目标检测方法
自动驾驶中的激光雷达点云如何做特征表达,将基于Lidar的目标检测方法分成了4类,即:基于BEV的目标检测方法,基于camera/range view的目标检测方法,基于point-wise feature的目标检测方法,基于融合特征的目标检测方法。本文对这4类方法讲解并总结,希望能帮助大家在实际使用中做出快速选择。
3D视觉工坊
2021/01/28
2.4K0
一文览尽LiDAR点云目标检测方法
ECCV20 3D目标检测新框架3D-CVF
这一篇文章主要介绍一篇发表在ECCV20上的采用多模态融合的3D目标检测的文章,并总结一下目前多多模态的方法。所谓多模态融合,即采取多种传感器数据作为深度学习网络的输入,多模态融合的好处多种传感器获取到的信息存在互补的地方,但是缺点是融合的方法比较难,需要做多方面的考虑,比如在传感器获取的信息的时序上,图像传感器像素点和点云信息的对应,以及图像存在远近导致的scale问题,在点云上并不存在同一物体在scale上的差别。 今天介绍的文章是:3D-CVF: Generating Joint Camera and LiDAR Features Using Cross-View Spatial Feature Fusion for 3D Object Detection。 文章链接:https://arxiv.org/pdf/2004.12636.pdf 发表在ECCV20,作者是汉阳大学团队
3D视觉工坊
2020/12/11
4580
智驾车技术栈 | 两万字综述:自动驾驶中基于Lidar点云的3D目标检测深度学习方法
本文为《A comprehensive survey of LIDAR-based 3D object detection methods with deep learning for autonomous driving》译文的基础上稍作修改提炼,方便大家学习理解。
小杨同学努力学习呀
2022/12/18
2.2K0
智驾车技术栈 | 两万字综述:自动驾驶中基于Lidar点云的3D目标检测深度学习方法
ICCV2021|单目3D目标检测真的需要伪激光雷达吗?
来源丨https://zhuanlan.zhihu.com/p/406918022
3D视觉工坊
2021/09/16
1.7K0
LPCG:用激光点云指导单目的3D物体检测
在自动驾驶和计算机视觉领域,单目3D物体检测是一项极具挑战性的任务。以前大多数的工作都是手动标注的3D标签框,标注成本很高。
一点人工一点智能
2022/12/24
5330
LPCG:用激光点云指导单目的3D物体检测
从数据集到2D和3D方法,一文概览目标检测领域进展
目标检测任务的目标是找到图像中的所有感兴趣区域,并确定这些区域的位置和类别。由于目标具有许多不同的外观、形状和姿态,再加上光线、遮挡和成像过程中其它因素的干扰,目标检测一直以来都是计算机视觉领域中一大挑战性难题。
机器之心
2020/11/13
1K0
从数据集到2D和3D方法,一文概览目标检测领域进展
推荐阅读
相关推荐
值得收藏!基于激光雷达数据的深度学习目标检测方法大合集(上)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档