谈谈6月1日台湾嘉义特斯拉事故

来源:公众号“汽车电子与软件”
2020-06-02
2168

6月1日,台湾嘉义县水上乡段发生一起特斯拉自动辅助驾驶引发的车祸,事发时内侧车道上有一辆货车发生侧翻,后方驶来的特斯拉Model 3刹车不及,撞上货车,所幸事故并未造成人员伤亡。


当事人描述


两位当事人在事后向媒体描述了当时的情形:

特斯拉车主:事故发生时,车辆开启了Autopilot 功能,时速约为110 Km。当时并未注意到前方车辆侧翻,在撞击前2秒才进行了紧急刹车。

货车司机:我当时已下车等待救援,看到特斯拉使来还不断挥手示意。


事故分析


这里的问题在于特斯拉的雷达以及摄像头都对侧翻卡车的识别出了问题。对于毫米波雷达来说,远距离的物体识别效果并不好,尤其是静止的体型异常的物体,很容易被雷达当做噪声过滤掉。对于摄像头来说,巨型白色反光面会对摄像头的识别产生致命影响。这和之前的特斯拉从白色大卡车下面钻过去的事故原因是一样的,由于摄像头是根据物体及其周边物体的外形,颜色区别对比障碍物进行识别,所以白色和强烈的光照会让摄像头误认为前方并没有障碍物。而前方车辆与环境颜色相近,则可能诱发事故。再加上之前的深度学习模型里没有出现这种场景,所以感知失败了。

雷达的物体识别,滤波及聚类是必要操作,大卡车横置,意味着整整半个多马路的雷达反射面,这种情况下,对前车的识别聚类,它的阈值没能覆盖到这么大横宽的车体,在滤波中会把这种情况当做噪声。

只要毫米波雷达在100多米外没正确检测到障碍物,后面视觉系统对白色超大车身几乎是没有办法的,误判是很正常的,而且我们也不知道这台特斯拉装载的是哪个版本的AP系统,也许是很老的,那就跟国外的那几起事故没什么区别。

在长距的时候,如果毫米波雷达的结果跟视觉的结果如果不一致还需要仲裁,仲裁的依据和结果都很重要。雷达和摄像头在每一时刻的数据在做融合和博弈,也许150m的时候雷达没有识别出大卡车,100m的时候识别出了,但是博弈失败了,直到最后30m的时候雷达的结果可靠度很大,博弈是赢了,但也来不及了。在高车速情况下基本上就是致命的。没有基础设施的通信协同,自动驾驶就是玩具。



自动驾驶仍然漫长



如果在“不需要刹车时刹车”,和在“需要刹车时不刹车”中二选一,你会怎么选?相信90%以上的人都会选择前者,因为后者一旦发生或将是致命的。

但实际结果却恰恰相反,对于在Autopilot领域内的工程师们来说,无一例外都会选择后者。这样一种听上去极其危险的设定,却是工程师们故意为之,到底是为什么呢?

以目前的自动驾驶技术来看,尚不能够实现完全的自动驾驶。即便硬件的科技含量很高,前期也做了多次实验模拟。但是在实际的道路环境中,还是会出现许多系统无法判断的情况。一般在遇到这种情况时,系统只有两条路选择:“误报(False Positive)”和“漏报(False Negative)”。也就是说,在系统不能明确判断前方是否有障碍物时,是应该当即制动以防万一,也就是误报。还是应该忽视掉这个不确定的危险,也就是漏报。

在很多人看来,系统的设定应该为误报倾向,本着“宁可信其无,也不信其有”的精神,才能最大程度避免事故的发生。但事实并不是这个样子,试想一下:在高速公路上,你开启了Autopilot,后面有辆车正在高速逼近,而前方一片开阔。这时,前方路面出现了一块大钢板,雷达判定为这是一个巨大障碍物,于是采取了紧急制动,后车来不及反应……

最安全的方案就是减速。

尤其是对于毫米波雷达来说,它对金属的反射很敏感。路上的钢板、凸起的井盖,甚至易拉罐的底部,在毫米波雷达的眼中,都相当于一堵墙。对于这种过于复杂的实际路面情况,车辆莫名制动所带来的不良驾驶体验不说,危险系数也会更大。

所以,工程师们才会采取“漏报”的逻辑,改善驾驶体验的同时,也避免过多制动行为所带来的安全隐患。但是,一旦系统漏报了任何一个确实存在的危险,都极有可能酿成大祸,这也就是为何目前各品牌官方都在强调“开启Autopilot功能时,双手也不应离开方向盘”。以便时刻做好准备,由驾驶员接管车辆。

而且特斯拉也在用户手册中明确写道:


再回到这次事故:为什么声称“全系在产车辆都将能够完全自动驾驶”的特斯拉,却连几百米开外可见的障碍物都躲不开呢?我们可以就特斯拉比较知名的几起事故来分析一下。

2016年5月,一辆特斯拉ModelS电动车在使用Autopilot模式行驶途中与一辆正在转弯的拖挂车相撞,导致驾驶者死亡。对于这起事故,特斯拉是这样解释的:


虽然官方对于这起事故并没有给出明确而有力的解释。但作为行业内的工程师,结合智能驾驶技术的发展以及所遇到的各种困难,我们不妨作出以下推断:就硬件设备上来看,当时那辆特斯拉配备的是第一代Autopilot系统,即来自Mobileye的前置摄像头、来自博世的毫米波雷达、以及12个超声波传感器。在优先级别上,是以摄像头为主导的。

虽然特斯拉官方将原因归咎于强烈的日照,以及白色车身,导致摄像头没有看到拖挂车,造成事故。但或许这些只是次要原因,关键问题很有可能在于:这代系统采用的Mobileye摄像头更多做的是针对车头和车尾的训练,而对于车侧的训练有限,又遇到拖挂车这样比较特殊的造型。因此摄像头从轮廓上来分析,并没有把它当做是障碍物。又由于拖挂车的底部是空的,毫米波雷达在进行扫描时也没有获取合理的反射。或者是判断出前方的拖挂车可能会有危险,但是由于摄像头作为主导,因此毫米波雷达的执行度不够高。两个模糊的判断叠加在一起,系统决定“漏报”,所以才导致了事故的发生。

Mobileye公司的一名高管Dan Galves也在事故后表明:

所以,在同年的9月份,特斯拉也宣布升级Autopilot技术。第二代Autopilot将以雷达而非摄像头作为主导来进行判断,通过车身配备的8个摄像头以及12个传感器,更好地感知周边的情况。同时在设定上也有所调整:如果司机在一定的时间内没有手扶方向盘,系统将发出警报,而如果司机多次忽略系统发出的警报,自动转向软件将自动停止使用。

声明还称:

这样看来,特斯拉已经具备了自动驾驶的硬件基础。不过这并不意味着特斯拉马上就能拥有完全自动驾驶能力。因为无论是对于每一个单独的传感器,还是对于不同传感器之间的融合,都还需要一定的时间来进行学习和改进。



Autopilot是否安全?


目前的事故原因正处于调查中,如果这仅是一起普通的交通事故,可能根本无人关注,但因为是自动驾驶而引发的,将会被无限放大。安全是自动驾驶需要解决的首要问题,我们不得不去重视并谨慎对待。

特斯拉2020年第一季度安全报告中的数据显示:

在Autopilot自动辅助驾驶参与的驾驶活动中,平均每468万英里(约合753万公里)行驶里程报告一起交通事故。

在没有Autopilot自动辅助驾驶参与的驾驶活动中,平均每199 万英里(约合320万公里)行驶里程报告一起交通事故。

在没有Autopilot自动辅助驾驶和主动安全功能参与的驾驶活动中,平均每142万英里(约合228万公里)行驶里程报告一起交通事故。

而美国国家公路交通安全管理局(NHTSA)的最新数据显示,美国平均每47.9万英里(约合77万公里)行驶里程即发生一起碰撞事故。

数据显示,Autopilot参与的驾驶活动,能明显提升行驶安全。然而,在人们的印象中,人为的失误是可以理解的,机器却是不可原谅的。



信任危机



人类的信任感是一个很微妙的东西,虽然它与生俱来,但需要随着时间逐渐积累,而信任感一旦丢失,则需要花很长的时间才能找回来。对于自动驾驶汽车安全等新技术而言,这种信任感也尤为重要。很多时候,一旦自动驾驶汽车发生了一次事故,便会人尽皆知,即使这些汽车已经经过了许多次安全测试。无论是这次的特斯拉撞车事故还是之前Uber的事故,都绝不仅仅是一个企业的问题,而是整个行业的信任危机。

在任何情况下,人们都更倾向于将责任归咎于技术而不是人类自己,这就导致了人们对技术的信任感缺失,从而影响了整个自动驾驶行业。



自动驾驶的误解 

人们对自动驾驶往往存在这样的误解有两方面的原因。一方面,一些企业过于相信汽车的自动驾驶功能,将消费者置于危险之中,这是一种错误且危险的引导。驾驶员不再将注意力集中在驾驶上,而是将过多责任赋予低级自动驾驶功能,让技术超越其能力范围进行工作,最终造成难以挽回的损失。其实,无论是自动驾驶车辆还是传统车辆,不专心驾驶都会给生命带来威胁。另一方面,某些企业对于自动驾驶功能并没有清晰的了解。低级自动驾驶是为了增强人类驾驶员的能力,而非取代,它只能帮助驾驶员做一些人类不擅长的事情,例如长时间集中注意力或检查所有盲区。然而,有些方面人类却比汽车更擅长,例如情境理解和物体识别。


自动驾驶远比想象中复杂,诸多关键问题需要整个行业共同参与,期待更多的朋友在留言中分享您的专业见解和宝贵知识!



本文观点来源为微信讨论及部分媒体信息。


END



收藏
点赞
2000