作者 / 华卫
人工智能贯穿了无人驾驶系统的全链条,包括感知、预测、规划和控制各环节都有人工智能的技术应用和部署。然而,目前来看,无人驾驶系统的安全性依然令人担忧,尤其是面对一些corner case场景时。
那么,当前自动驾驶系统的安全性瓶颈究竟是什么?如何提升应用于自动驾驶的人工智能算法安全?
近期,在由中国汽车工程学会、清华大学、北京大学联合举办的「生成式人工智能与自动驾驶」专题分会上,清华大学长聘副教授崔鹏老师从人工智能研究的角度出发,对上述问题进行了分析和解答,并在此基础之上给出了「沿途下蛋」的解决方向。
感知系统脆弱性的根源
缺失OOD能力
目前,无人驾驶仿真系统是面向corner case的解决方案之一。从人工智能研究的角度来看,这种仿真系统处理决策层面的corner case较为容易,但很难解决感知层面的corner case。这取决于仿真技术的逼真程度,即所仿的感知层面数据和在真实世界里看到的corner case数据是否逼近。
「现在的感知系统脆弱性很强,如果不解决这个问题,整个系统的安全都会被影响。」崔鹏认为,感知系统脆弱性的根源是分布外泛化能力(Out-Of-Distribution, OOD)的缺失。
经典的机器学习方法基于i.i.d.假设,训练和测试数据是独立同分布的。然而,在真实场景中,测试时和训练时的数据分布往往并非保持一致,i.i.d.假设得不到满足,就很难保证系统性能,需要面临分布外泛化的问题。
「我们需要把所有的corner case都转化成common case,才能用当前的机器学习方法去解决。」崔鹏表示,想让系统具有处理全量数据的能力,需要在训练阶段就给它喂与全量数据差不多的当量数据。但实际上,对于各类场景,人类驾驶员是通过自身较强的外推泛化能力来处理的。
因此,他指出,提升自动驾驶算法安全的重要技术途径是:提升自动驾驶人工智能算法的OOD能力。
OOD泛化的两条路:
「以不变应万变」
根据崔鹏的介绍,OOD可分为两种情况。如果测试数据分布已知(或部分已知),为OOD自适应(OOD Adaptation);如果测试数据分布完全未知,才是OOD泛化(OOD Generalization)。
而OOD泛化又和传统机器学习的泛化存在差别,后者是「内插」问题,OOD泛化则更多是「外插」问题。
崔鹏表示,外插的基础是不变性(Invariance),只有找到不变性,才能够以不变应万变。为此,其围绕两条技术路径来做探索:因果推理和从异质性中找到不变机制。
为将因果关系具有不变性属性的结构集成到机器学习框架中,崔鹏团队研究了多个输入变量对输出变量预测性的影响。在稳定学习框架下,其试图找到一组合适的样本权重,进行样本重加权后再通过输入变量对输出变量进行回归,当回归系数即为满足因果关系的回归系数,训练出的模型具有OOD的泛化能力。
另一条技术路径,则是首先采用数据驱动的方式去发现给定数据中的异质性,再提出一种新的优化框架,根据异质性找到其中的不变性。
「沿途下蛋」的解决方案
除指出长远技术路径外,崔鹏还为现有自动驾驶算法泛化的「沿途下蛋」提供了新的发展方向。
在他看来,可以通过对人工智能算法进行泛化边界评测,并逐步扩大模型的泛化边界,从而使算法朝着更加理想的状态发展。
此外,崔鹏提出,可以同时采用多个相对弱但明确泛化边界的模型,来实现算法目标。
领取专属 10元无门槛券
私享最新 技术干货