腾讯旗下资安公司Keen Security Lab的资安研究员上周发表了一份报告,在车道中贴了3张贴纸,引导自动驾驶的Tesla Model S误判,驶进对向车道。
报告一开始,研究员尝试让与左侧车道分隔线模糊难以辨识,企图扰乱特斯拉的方向,不过特斯拉这方面表现极佳,丝毫不受干扰,测试结果显示要借抹糊路上标线攻击特斯拉的实行难度非常高。
不过既然对模糊标线也能准确判断,研究员换个角度切入,测试「假车道攻击」(fake lane attack)。研究员在地上贴了三张贴纸,依序延伸到左侧,结果特斯拉自动驾驶果真上钩,将应为对向的车道当作另一条路的右侧车道,直接开进去。
虽然测试中并没有设定另一辆对向车开过来,但现实中也有可能会碰到没对向车的情形,逆向开在车道中仍然相当危险。
至于达成难易度方面,报告中并无详述贴纸大小,但从现场画面看起来应该是「可见而不大」的记号贴纸。研究员也在结论中判断骇客可以轻易重现类似攻击手段,并补充建议应加强判断条件,让自动驾驶车辆至少能理解并避免驶入对向车道。
由于自动驾驶与安全息息相关,尽管目前研究皆指出自动驾驶事故率远低于人类驾驶,但人们对于自动驾驶仍然不信任,在路透社的调查中可以看到,半数美国成年人认为自驾车比人类驾驶更危险,加上从过去纪录可以发现,电脑视觉判定与人类不同,常在出人意料之处误判,不得不慎。
特斯拉针对旗下的Mdel 3更祭出丰厚的漏洞奖励计画,希望重赏号召资安好手、白帽骇客骇入车中,来揪出任何遗漏的漏洞。
领取专属 10元无门槛券
私享最新 技术干货