作为自动驾驶车辆的“眼睛”,Tesla 的摄像头和传感器承担了“感知周边环境”以及“收集数据”的功能,很多高清地图的数据采集都要依靠它们来进行。
这个过程必须依赖一些雷达和超声波传感器技术,同时基于计算机视觉原理驱动,摄像头与神经网络系统进行协同,在“看到”的同时能进行“识别”,就像人类驾驶者一样。
不久前,为了能更好地了解特斯拉的自动驾驶系统是如何工作的,国外的特斯拉黑客 Verygreen 和 TMC 用户 DamianXVI在 Ebay 上购买了一套2.5版本的 Autopilot 硬件(是一个完全解锁的开发人员版本),并对这套系统进行了研究实验和解读。
下面这段视频是基于 Green 和 Damian 的这次研究(车辆所使用的固件版本为18.34),一辆由人类驾驶的特斯拉的Autopilot系统在穿过巴黎的过程中所看到的景象:
Green对视频中可能出现的一些数据规范以及显示体例进行了说明:
“底部的绿色填充代表‘可能的驾驶空间’,也就是可供行驶的道路;线条用以标识各种检测到的车道和道路边界(颜色代表不同的类型,但是实际意义并未直接在视频中给出答案)。检测到的各种物体会按类型进行列举,并且在3D空间和深度信息中都有自己相应的坐标,相关雷达数据(如果存在)和各种其他属性也会得到呈现。”
另外这段视频中还有一些有趣的信息:
01:17
交通锥可以定义可驾驶空间的边界
01:31
被认为是卡车的建筑施工设备
02:23
误报,一个大尺寸的装载容器被误认为车辆
03:31
根本没有检测到身穿红色夹克的行人。
04:12
一个显示右转的线条示例,但是道路本身并没有类似的标记
06:52
另一个误报——海报被错误识别为行人
08:10
另一个更突出的示例,系统显示左转车道但实际上并没有道路标记
09:25
靠拢一名骑自行车的人
11:44
轮滑选手
14:00
本车差点和左边那辆车发生碰撞意外,但Autopilot并没有发出警告
19:48
同时识别出20名行人
这个视频展示出了 Autopilot 看到的和人类看到的内容之间的区别,但实际上,这未必是评价 Autopilot 的识别能力和决策能力的正确方法,因为其实系统即使“看到”了,它也无法真正地解析出背景图像的实际含义。
但无论如何,这可能是对自动驾驶/驾驶辅助系统的第一次真正的第三方测试。这样的测试能促使特斯拉等公司对自动驾驶系统的开发更加开放,也能帮助人们更好地理解这些系统的工作原理及其局限性。
毫无疑问,自动驾驶涵盖了人类过去一百年几乎所有最重要的技术,而自动驾驶遇到的问题,反映了文化、习惯、社交等不同层次的问题。
相信随着人类的努力和驾驶系统自身的进化,人与系统之间的互信将得到进一步的强化。
再过10年这套系统会超过人类!
领取专属 10元无门槛券
私享最新 技术干货