近日,特斯拉又失控了,准备停车时却忽然失控狂奔,时速近两百,连撞多车后致多人死伤,其中包括司机自己!那么,“自动驾驶”技术到底靠谱吗?
近日,广东潮州饶平县一辆特斯拉Model Y,准备停车时却忽然失控狂奔两公里,连撞多车致2死3伤,这已经是特斯拉今年再次失控了,今年7月,作为赛车手的林志颖驾驶特斯拉Model X携子出行,结果车辆忽然失控,撞上分道护栏致使百万豪车焚毁,幸亏众人及时伸手救助,林志颖和其儿子仅受轻伤。
那么,“自动驾驶”技术到底靠谱吗?结论是简单且肯定的,不靠谱,因为“自动驾驶”技术,在目前,从名称上就是忽悠消费者,当前所谓的“自动驾驶”都只能叫“辅助驾驶”,而不能叫“自动驾驶”,我们离“自动驾驶”还有很长的路要走。如果意识不到这一点,出现车祸的风险,反而会成倍地提高。
发文不易,如果大家喜欢,请加关注并长按3秒点个赞吧,精彩继续。
首先,“辅助驾驶”水平有高低,今年8月,宁波一位小鹏 P7车主,驾车与一辆故障车相撞,造成一人死亡。原因在于车主买的是一辆低配车,低配的不只在于动力和内饰上的低配,连“辅助驾驶”功能也是低配的:“毫米波雷达、运算芯片、高精度定位系统”等都相差巨大。车主以为自己的车是很智能的,结果超出了低配“辅助驾驶”的边界,于是就出了事故。
其次,“辅助驾驶”无法解决“静态白色大背景障碍物”的识别困境,这类障碍物典型的样子,就是一辆正在横穿马路的白色半挂车。当使用“辅助驾驶”去判断时,白色的大货柜和远处晴朗天空中的白云,偶尔会融为一体,所以,此时的大货柜就会被识别为天空的一部分,于是结果就是,车辆没有减速就直接撞了上去。
再次,“辅助驾驶”导致了“车主困境”,会被车企和车内提示无数次警告,“辅助驾驶”不能代替真人,要准备好随时接管车辆,但车主不知道,几百小时正常运转中,偶尔几秒的错误,会在什么时候出现,所以,车主不得不高度集中注意力,随时准备踩下刹车,但很可能忙中出错,错将油门当成刹车,反而酿成了事故。
对于“自动驾驶”这件事,评论区里说说你的看法吧!
领取专属 10元无门槛券
私享最新 技术干货