安装在自动驾驶车四角的高性能传感器组(包括视觉摄像头、激光雷达、雷达和长波红外摄像头)构成360度重叠视场,探测范围超过百米。这些传感器与Zoox道路网络(ZRN)语义地图结合,实时识别并分类场景中的动态"智能体"(车辆、行人、自行车等),精确追踪其速度和运动轨迹。
感知数据被转换为60个通道的二维鸟瞰图,每个通道包含不同语义信息(如行人是否使用手机)。卷积神经网络(CNN)分析这些数据,生成场景中每个动态智能体未来8秒的运动轨迹概率分布。预测结果每0.1秒更新,考虑因素包括:
团队正部署图像神经网络(GNN)建立场景元素间的显式关系模型。该系统通过"消息传递"机制,模拟现实世界中行人/车辆间的行为相互影响(如走廊避让场景),使预测更符合人类行为模式。
预测系统与规划系统形成反馈循环:规划器会询问"如果执行X/Y/Z动作,周围智能体将如何反应?"。这种交互使车辆能进行更自然的道路协商,目前测试车队已在旧金山、西雅图和拉斯维加斯积累数百万英里的训练数据。
当前重点包括:
系统从最初仅3个源代码文件的启发式算法,已发展为包含深度学习前沿技术的预测引擎,持续提升自动驾驶的安全性和自然度。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。