Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >自动驾驶数据集 nuScenes

自动驾驶数据集 nuScenes

作者头像
为为为什么
发布于 2024-09-06 04:22:02
发布于 2024-09-06 04:22:02
6530
举报
文章被收录于专栏:又见苍岚又见苍岚

nuScenes 是一个大型公开自动驾驶数据集,它使研究人员能够研究具有挑战性的城市驾驶情况,使用真实自动驾驶汽车的全套传感器。

简介

NuScenes 数据集 (发音为/nuːsiːnz/) 是一个公开的大规模自动驾驶数据集,由 Motional (以前的 nuTonomy)团队开发。动感正在使无人驾驶汽车成为一种安全、可靠和易于使用的现实。通过向公众发布我们的数据子集,Motion 的目标是支持公众对计算机视觉和自动驾驶的研究。

为此,我们在波士顿和新加坡收集了1000个驾驶场景,这两个城市以拥挤的交通和极具挑战性的驾驶环境而闻名。20秒长的场景是手动选择,以显示不同的和有趣的驾驶机动,交通情况和意想不到的行为。NuScenes 的丰富复杂性将鼓励开发方法,使安全驾驶在城市地区与每个场景几十个对象。通过收集不同大陆的数据,我们可以进一步研究计算机视觉算法在不同地点、天气条件、车辆类型、植被、道路标记和左右交通中的泛化。

为了方便常见的计算机视觉任务,例如目标检测和跟踪,我们在整个数据集上用 2Hz 的精确三维边界框对23个对象类进行注释。此外,我们还注释对象级属性,如可见性、活动和姿态。

对于 nuScenes 数据集,我们在波士顿和新加坡收集了大约15小时的驾驶数据。对于完整的 nuScenes 数据集,我们发布来自 Boston Seaport 和新加坡的 One North、昆斯敦和 Holland Village 地区的数据。驾驶路线是精心选择,以捕捉具有挑战性的情况。我们的目标是不同的地点,时间和天气条件。为了平衡班级频率分布,我们包含了更多稀有班级的场景(如自行车)。使用这些标准,我们手动选择1000个场景,每个场景持续时间为20秒。这些场景是由人类专家精心注释的。注释器指令可以在 devkit 存储库中找到。

我们在波士顿和新加坡使用两辆雷诺佐伊汽车,它们的传感器布局完全相同。这些数据是从一个研究平台收集的,并不能说明在 Motion 产品中使用的设置。有关感应器的位置,请参阅上图。

数据集特点

  1. 全套传感器(一个激光雷达,五个雷达,六个摄像头, IMU, GPS)
  2. 1000 个场景数据,每组数据 20s
  3. 1400000 摄像头图像
  4. 390000 激光雷达扫描数据
  5. 两个城市数据:波士顿和新加坡
  6. 详细的地图信息
  7. 为23个对象类手动注释的1.4 M 3D 边界框
  8. 可见性,活动和姿势等属性
  9. 1.1 B 激光雷达点32类手动注释
  10. 非商业用途免费使用

官方地址https://nuscenes.org/

下载链接https://nuscenes.org/nuscenes

传感器校准

为了获得高质量的多传感器数据集,必须对每个传感器的外部特性和内部特性进行标定。我们表示相对于自我框架的外部坐标,即后车轴的中点。最相关的步骤如下:

激光雷达

我们使用激光线来准确测量激光雷达的相对位置的自我框架。

相机

我们在摄像机和激光雷达传感器前面放置一个立方体形状的校准目标。标定目标由三个具有已知模式的正交平面组成。在检测到图案之后,我们通过校准目标的平面来计算从相机到激光雷达的变换矩阵。给定上述计算的激光雷达到自我帧变换,我们就可以计算摄像机到自我帧变换和由此产生的外部参数。

雷达

我们把雷达安装在水平位置。然后我们通过在城市环境中驾驶来收集雷达测量数据。在滤波雷达返回的运动目标,我们校准偏航角使用蛮力的方法,以最小化补偿距离率的静态目标。

相机内部标定

我们使用一个具有已知模式集的校准目标板来推断摄像机的内在参数和畸变参数。

传感器同步

为了在激光雷达和相机之间实现良好的跨模态数据对齐,当顶部激光雷达扫过相机的视野中心时,相机的曝光被触发。图像的时间戳是曝光触发时间; 激光雷达扫描的时间戳是当前激光雷达帧完全旋转的时间。考虑到相机的曝光时间几乎是瞬间的,这种方法通常产生良好的数据对齐。请注意,相机运行在 12Hz,而激光雷达运行在 20Hz。12个相机的曝光在20个激光雷达扫描中尽可能均匀地分布,因此并非所有的激光雷达扫描都有相应的相机框架。将摄像机的帧频降低到12Hz 有助于减少感知系统的计算量、带宽和存储需求。

评价指标

nuScenes 检测任务的度量。我们的最终得分是平均精度(mAP)和几个真正正值(TP)指标的加权和。

Average Precision metric
  • mean Average Precision (mAP)

我们使用众所周知的平均精度度量,但是通过考虑地平面上的二维中心距离来定义匹配。具体来说,我们将预测与具有最小中心距离达到一定阈值的地面真相对象进行匹配。对于给定的匹配阈值,我们通过积分召回与精度曲线来计算平均精度(AP) ,并且精度 > 0.1。最后,我们平均超过{0.5,1,2,4}米的匹配阈值,并计算类间的平均值。

米。在计算AP时,去除了低于0.1的recall和precision并用0来代替这些区域。不同类以及不同难度D用来计算mAP:

\mathrm{mAP}=\frac1{|\mathbb{C}||\mathbb{D}|}\sum_{c\in\mathbb{C}}\sum_{d\in\mathbb{D}}\mathrm{AP}_{c,d}
True Positive metrics

我们为一组真正的正面(TP)定义了度量转换/尺度/方向/速度和属性错误的指标。在匹配过程中,所有 TP 指标都使用2m 中心距离的阈值计算,并且它们都被设计为正标量。

匹配和评分分别发生在每个类别,每个指标是每个达到的召回水平超过10% 的累积平均值的平均值。如果某个类没有达到10% 的召回率,则该类的所有 TP 错误都设置为1。我们定义以下 TP 错误:

指标

含义

Average Translation Error (ATE)

以米为单位的二维欧几里得中心距离。

Average Scale Error (ASE)

1 - IoU, 其中 IoU 是角度对齐后的三维交并比

Average Orientation Error (AOE)

弧度预报与地面真实度的最小偏航角差。方向误差评定在360度,除了障碍,所有类别只评定在180度。忽略锥体的方向错误。

Average Velocity Error (AVE)

忽略了障碍物和锥体在 m/s 速度误差中的绝对速度误差, 二维速度差的L2 范数(m/s)。

Average Attribute Error (AAE)

计算为1-acc,其中 acc 是属性分类精度。忽略障碍和锥的属性误差。

TP 指标是按类定义的,然后我们采用类的平均值来计算 mATE、 mASE、 mAOE、 mAVE 和 mAAE。

nuScenes detection score
  • nuScenes detection score (NDS)

。然后,我们分配一个权重为 5 的 mAP 和 1 的 5 TP 分数,并计算归一化的总和。

\begin{aligned}\text{NDS}&=\frac{1}{10}[5\text{ mAP}+\sum_{\text{mTP}\in\text{T}\mathbb{P}}(1-\min(1,\text{ mTP}))]\end{aligned}

原始论文

参考资料

文章链接:

https://cloud.tencent.com/developer/article/2449579

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-9-5,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
​四大院校携手 GraphBEV | 将激光雷达和相机信息融合到BEV,比 BEVFusion性能高出8.3% !
三维目标检测是自动驾驶系统的一个关键组成部分,旨在准确识别和定位汽车、行人以及三维环境中的其他元素[49, 58]。为了鲁棒和高品质的检测,当前的实践主要遵循像BEVFusion[29, 34]这样的多模态融合范式。不同的模态通常提供互补的信息。例如,图像含有丰富的语义表示,但缺乏深度信息。相比之下,点云提供了几何和深度信息,但却是稀疏的且缺乏语义信息。因此,有效利用多模态数据的优势同时减轻其局限性,对于提高感知系统的鲁棒性和准确性至关重要[58]。
AIGC 先锋科技
2024/07/08
1.1K0
​四大院校携手 GraphBEV  |  将激光雷达和相机信息融合到BEV,比 BEVFusion性能高出8.3% !
自动驾驶系统中摄像头相对地面的在线标定
文章:Online Camera-to-ground Calibration for Autonomous Driving
点云PCL博主
2023/08/21
9420
自动驾驶系统中摄像头相对地面的在线标定
当视觉遇到毫米波雷达:自动驾驶的三维目标感知基准
文章:Vision meets mmWave Radar: 3D Object Perception Benchmark for Autonomous Driving
点云PCL博主
2023/12/12
8040
当视觉遇到毫米波雷达:自动驾驶的三维目标感知基准
Lyft公开了一个自动驾驶数据集,还要举办比赛!
7月4日举办的百度开发者大会上,李彦宏宣布百度L4级自动驾驶路测里程破两百万公里,百度的level4自动驾驶已经发展到了一个新的阶段。
大数据文摘
2019/07/30
7090
Lyft公开了一个自动驾驶数据集,还要举办比赛!
福特发布自动驾驶汽车数据集 迄今为止最为全面
据外媒报道,福特近日在官网上线了一个语料库Ford Autonomous Vehicle Dataset(福特自动驾驶汽车数据集),该数据集包含了2017~2018两年间的自动驾驶车队在密歇根州的路测数据,总大小1.6TB。福特将该数据集免费提供给研究人员,用于提高自动驾驶汽车在城市环境中的适应性。
数据猿
2020/04/07
7890
端到端自动驾驶:数据、方法与展望
“端到端”,可以说是神经网络战胜传统算法的最重要法宝。一个训练好的神经网络,只需要部署在一个接受输入数据的模块里面,就可以直接输出该任务的最终结果,曾经让目标检测、语义分割、关键点检测等计算机视觉(现在已经不限于视觉了)无论是精度、速度还是模块本身的部署都有了划时代的进展。
一点人工一点智能
2023/05/04
9700
端到端自动驾驶:数据、方法与展望
史上最全 | 室外大规模3D检测数据集汇总
作者:Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago;
3D视觉工坊
2023/04/29
1.5K0
史上最全 | 室外大规模3D检测数据集汇总
自动驾驶新数据集发布,针对局部的渐进稀疏技术 | AI一周学术
呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!
大数据文摘
2019/04/26
6260
自动驾驶新数据集发布,针对局部的渐进稀疏技术 | AI一周学术
万字综述 | 自动驾驶多传感器融合感知
原文:Multi-modal Sensor Fusion for Auto Driving Perception: A Survey
一点人工一点智能
2022/10/07
5.3K0
万字综述 | 自动驾驶多传感器融合感知
16个车辆信息检测数据集收集汇总
UA-DETRAC是一个具有挑战性的现实世界多目标检测和多目标跟踪基准。数据集由 Cannon EOS 550D摄像头在中国北京和天津24个不同地点拍摄的10个小时的视频组成。视频以每秒25帧的速度录制,分辨率为960540像素。在UA-DETRAC数据集中,有超过14万帧和8250辆车被人工标注,总共标记了121万物体的边界盒。我们还对目标检测和多目标跟踪方面的最新方法进行基准测试,以及本网站中详细介绍的评估指标。
用户9925864
2022/07/27
10.3K0
16个车辆信息检测数据集收集汇总
K-Radar:适用于各种天气条件的自动驾驶4D雷达物体检测
文章:K-Radar: 4D Radar Object Detection for Autonomous Driving in Various Weather Conditions
点云PCL博主
2023/12/11
8130
K-Radar:适用于各种天气条件的自动驾驶4D雷达物体检测
高质量自动驾驶数据集大汇总「AI优质资源」
编者按:从3D雷达、图像到语义等数据类型,从交通灯到车辆、行人等路上目标,包括多种复杂交通场景的全球二十多个自动驾驶数据集概览及索引。
用户7623498
2020/11/11
2.2K0
高质量自动驾驶数据集大汇总「AI优质资源」
神秘的Waymo一反常态,CVPR现场发布大型自动驾驶数据集
目前,自动驾驶领域已经出现很多数据集,例如 KITTI、Oxford、Cityscape、nuScenes、BDD100K 等。
机器之心
2019/06/20
9340
神秘的Waymo一反常态,CVPR现场发布大型自动驾驶数据集
KITTI数据集简介与使用
摘要:本文融合了Are we ready for Autonomous Driving? The KITTI Vision Benchmark Suite和Vision meets Robotics:
CreateAMind
2018/07/24
10.5K0
KITTI数据集简介与使用
自动驾驶中图像与点云融合的深度学习研究进展综述
文章:Deep Learning for Image and Point Cloud Fusion in Autonomous Driving: A Review
3D视觉工坊
2020/11/11
3.7K0
自动驾驶中图像与点云融合的深度学习研究进展综述
TJ4DRadSet:自动驾驶4D成像雷达数据集
文章:TJ4DRadSet: A 4D Radar Dataset for Autonomous Driving
点云PCL博主
2022/12/27
1.2K0
TJ4DRadSet:自动驾驶4D成像雷达数据集
自动驾驶综述|定位、感知、规划常见算法汇总
这一部分概述了自动驾驶汽车自动化系统的典型体系结构,并对感知系统、决策系统及其子系统的职责进行了评述。
磐创AI
2020/05/26
3K0
自动驾驶综述|定位、感知、规划常见算法汇总
简述:机器人BEV检测中的相机-毫米波雷达融合
论文:Vision-RADAR fusion for Robotics BEV Detections: A Survey
一点人工一点智能
2023/10/21
8720
简述:机器人BEV检测中的相机-毫米波雷达融合
基于多LiDAR城市自动驾驶定位与地图构建方案
文章:Multi-LiDAR Localization and Mapping Pipeline for Urban Autonomous Driving
点云PCL博主
2023/11/13
6480
基于多LiDAR城市自动驾驶定位与地图构建方案
大盘点|三维视觉与自动驾驶数据集(40个)
简介:KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的算法评测数据集。该数据集用于评测立体图像(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D跟踪(tracking)等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。整个数据集由389对立体图像和光流图,39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成,以10Hz的频率采样及同步。对于3D物体检测,label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc。
3D视觉工坊
2021/07/29
2K0
推荐阅读
相关推荐
​四大院校携手 GraphBEV | 将激光雷达和相机信息融合到BEV,比 BEVFusion性能高出8.3% !
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档