特斯拉又出事了。
当地时间3月11日早上,一辆白色特斯拉Model Y在美国底特律西南部一个十字路口撞上了一辆白色半挂卡车。现场报道称,特斯拉被卡在了半挂卡车底下,这导致现场很难清理,事发路段也因此交通封闭了几个小时。
截至目前特斯拉官网尚未公布事故原因,但联想起特斯拉此前因自动驾驶引发的多起事故,这一次,不少人猜测事故车辆是否也在自动驾驶状态下。
2016年,美国佛州的一辆特斯拉Model S在Autolipot状态下与正在转弯的白色半挂卡车发生碰撞,特斯拉驾驶员不幸身亡;2019年,一辆特斯拉Model 3在Autolipot状态下以110公里/小时的时速径直撞向了一辆正在缓慢横穿马路的白色拖挂卡车……
为什么特斯拉总是识别不出白色车辆?特斯拉的自动驾驶技术究竟安不安全?为什么多家车企的L2级自动驾驶都出现了安全事故?这些事故的共性是,驾驶员过于信任自动辅助驾驶系统,而放弃汽车控制权或不再时刻关心路况。
自动驾驶目前形成了两大派系,一派是谷歌派,走的是全自动驾驶模式,主要目标是无人驾驶技术完全取代人,所以从一开始就没有考虑刹车、油门、方向盘等问题。另一派是以特斯拉为首的汽车制造商,做法是先实现半自动辅助驾驶,再逐步过渡到完全自动驾驶。
尽管一些传统车企早已研发出、配备上了自动辅助驾驶的功能,但还是比较保守,造车新势力们在这方面似乎更为激进,且有弯道超车的架势。不少专家也指出,由于电气化程度高、动能效率高等特性,新能源车是自动驾驶的最佳载体。
特斯拉的创始人马斯克在2020年上海世界人工智能大会发布的视频中说:“我觉得我们已经非常接近L5级自动驾驶了。我有信心,我们将在今年完成开发L5级别自动驾驶的基本功能”。
随着越来越多企业加入并且鼓吹自己具备L3、L4级别的自动驾驶技术,越来越多配备着自动辅助驾驶系统的新造车上路,一些现实的问题摆在车企、供应商与消费者面前:如何平衡技术与安全?如何让驾驶者及时且安全地接管控制汽车?最重要的是,人类驾驶员该不该相信自动驾驶系统?
你敢不敢用自动驾驶系统?
你敢不敢开着自动驾驶系统在路上跑?
“真不敢。”一位车主在车主群里直言:“我把有关自动驾驶的一切都关了,因为非常不信任这个系统。”
家里有一辆Model 3 的车主陈亮一提到自动驾驶就有点儿后怕:“现在路况还不够完善,自动驾驶技术还不是很成熟,听着有点儿吓人,我不敢用。”
也有极大胆者。特斯拉车主Monica就看到有人在车主群里分享这样的经历:由于极度信任自动驾驶,在三环上跑了两圈结果睡着了。“相当于他跑的这几圈完全没有接管方向盘,不知道他是怎么骗过系统的。”
为了确保驾驶者的警觉性,不少配备了自动辅助驾驶功能的车辆会在方向盘上装设感应器,从而确认在开启自动辅助驾驶系统的时候,驾驶员是否把手放在方向盘上。
但不少车主在网络上分享了抖机灵的做法,比如把矿泉水瓶、橘子绑在方向盘上迷惑系统,让系统误认为是驾驶员的手在方向盘上。
但更多时候,车主们面对自动驾驶技术往往是小心翼翼地试用、体验。常年跑通勤开启特斯拉Autopilot功能的车主王盛坦言:“我其实分不清具体什么是自动驾驶,什么是自动辅助驾驶,潜意识觉得它有点儿危险。后来有朋友一直在用特斯拉的Autopilot功能,在他的推荐下我才开始用的。”
总体来说,据Monica观察,周围90%的车主都是非常小心谨慎地尝试自动驾驶系统。“我个人其实是依靠路况来判断要不要开启。在路况好的时候,上高架、高速都非常有用。市区路况不好时不敢开。即便使用的时候可以稍微解放双手双脚,但也得一直盯着道路,你的手必须是随时处于接管车辆的状态。”
Model X车主张鹭也持相同的观点,“还是谨慎点儿好。”他平日开车上路也不依赖自动驾驶,一般是在城市道路比较拥堵的时候,或者在高速路上驾驶比较疲惫的时候,才开启自动驾驶功能。在他看来,自动驾驶不危险,尽管偶尔会出一些bug,但随着技术发展,会越来越安全,不过需要谨慎对待。
如今造车新势力包括特斯拉、小鹏等在内,给用户提供的是“整体化”的辅助驾驶功能,相当于在宣传上没有划分出太多细分功能,而是在场景中融入自动辅助驾驶功能。
经朋友推荐开启自动辅助驾驶功能的王盛,如今只要是跑通勤上高速或者上环线都会开启自动驾驶。“感觉太方便太省心了,相比于自己亲手开,能省不少事儿,有时候还能接接电话。”
张鹭也发现了自动驾驶的好处。“平日里开车,我只用手握方向盘,刹车和油门就不用踩了,系统会自动跟车,自动转弯,非常方便。”
“甚至有几次,自动驾驶救了我的命。”张鹭回忆,特斯拉的自动驾驶有一些主动预警的措施,比如车道偏离、追尾等,在关键时刻会给他提醒。
但车主们也不是没有遇到过安全事故,不少人曾遇到过“惊险时刻”。
杭州的孟孟刚买特斯拉一个月,就遇到了事故。那天晚上,下了点小雨,人也有点放松,她开启了辅助驾驶系统在高架路上行驶,结果突然撞上了一个修路的指示牌。“原来是系统完全没有识别出来,万幸修路的工人没有站在中间,现在想想还后怕。”
Monica有时候会“被特斯拉吓一跳”,它会识别不到车速比较慢的车,比如说停在路边故障车、慢速的清扫车,这时候系统会突然急刹车,它以为前面有障碍物。”
有一次一辆车中途强行并线,王盛下意识踩了一脚刹车,因为开启着Autopilot自动辅助驾驶,踩刹车相当于解除自动驾驶了,差点儿被追尾。后来,王盛用自动辅助驾驶系统有经验了,但是还是很怕前方车辆突然强行并线从而导致自己被追尾。
自动驾驶和辅助驾驶
傻傻分不清楚
究竟什么是自动驾驶,自动驾驶与辅助驾驶的区别在哪儿,车主们往往是一头雾水。
Monica就没有具体了解过系统里有哪些功能,而是直接上手了。在她的视角里,“需要做什么的时候系统会自动提醒。”
另一位特斯拉车主的理解是,自动驾驶技术就是解放双手双脚,完全不用人了。
还有不少车主是依靠名称来猜。
以特斯拉为例,目前,特斯拉针对自动驾驶推出了不同的软件包,其中,基础标配的功能被称作基础辅助驾驶功能(即AP),更高阶的软件包FSD,则被称为完全自动驾驶。由于特斯拉直接把更高阶的自动驾驶软件包取名为完全自动驾驶,不少车主直接把特斯拉FSD等同于自动驾驶技术。
对于FSD,一位车主表示,“感觉是完全可以放开手脚的那种。”但实际上,FSD名称叫完全自动驾驶,实际功能更多是L2级别的自动驾驶,再叠加一些结构化、场景化的L3、L4级别的自动驾驶,离真正的自动驾驶还很遥远。
直接面向消费者的特斯拉销售,在这点上似乎也没什么帮助。“销售既没有和我明确解释,特斯拉的AP和FSD的区别,也没有和我说每个功能如何操作,有什么注意事项,只是提了一句‘有这样的软件包’,我觉得不是很划算所以就没买。”上述车主回忆。
某种程度上,车友群里的普及和使用分享,反而成了车主们了解自动驾驶、辅助驾驶系统的重要渠道。
但因为概念模糊、认知不清晰,已经让一些车主付出了代价。
2016年5月,一名特斯拉Model S司机在美国佛罗里达州威利斯顿附近被撞身亡,当时他启动了自动驾驶系统,车辆撞上了一辆拖拉机拖车,电动车车顶被掀开。
2018年3月,美国加州山景城发生一起致命事故,当时一辆运行自动驾驶的Model X撞上了混凝土护栏。事后特斯拉调查发现,车辆日志显示,司机收到了需将手放在方向盘上的警告,但司机在事故发生前没有采取任何行动。
2020年6月1日,一辆特斯拉Model 3行驶在台湾高速公路上时,直接撞向一辆翻倒在公路上的大卡车。据警方介绍,“司机表示自己在车辆行驶时开启了自动驾驶辅助功能,将车速固定在110公里/小时,行驶途中自己有些分神,没有将全部注意力集中在车辆和道路上。”
这些悲剧的共性就在于,驾驶员过于信任自动辅助驾驶系统,导致放弃控制汽车控制权、或者不关心路况,在危险来临之时,没有及时接管车辆。
被滥用的“自动驾驶”
为什么原本能够进一步保证行程安全的自动驾驶技术,反而成了马路杀手?我们得从自动驾驶的分级说起。
不少人头脑中的自动驾驶大概是这样的——一辆没有司机没有方向盘的无人车载着乘客在路上狂奔,并完美躲避障碍物。
但实际上,按照美国汽车工程师学会(SAE)的定义,自动驾驶分为从0级(完全手动)到5级(完全自动)6个等级,主要看驾驶员的介入程度。最高级别L5可以做到全场景全自动,相当于上述人们头脑中、电影中展示的自动驾驶。目前技术水平有限,不过在走向L5的路上,每提高一个等级,自动化的程度就晋升一级台阶。
这其中最重要的分界线是L2级别。
L2及以下级别是自动驾驶的初级水平,被划分为ADAS(Advanced Driving Assistance System)范畴,也就是高级驾驶辅助系统,利用系统和技术来辅助驾驶员完成驾驶。这意味着,这个区间的自动驾驶技术不具备“全自动驾驶能力”,是始终需要人类监管的驾驶辅助系统——事故主要责任人是人类驾驶员。
L3及以上级别,驾驶员才有机会脱手脱脚,无需全程接管、监管。这时候,系统不仅需要负责从各种传感器和摄像头等设备收集信息,还转变成了需要根据这些信息进行判断并执行的主体——一旦发生事故,技术提供方也就是主机厂,与驾驶员共同承担责任。
因此,分级究竟是L2还是L2以上至关重要,这决定了事故的责任方究竟是谁,也决定了驾驶员究竟是无需接管还是必须全程监督。
美国高速公路安全保险协会IIHS就曾指出,半自动驾驶功能理应是为车主提供额外的一层安全保障,但企业在设计某些功能时的出发点,就是让司机“脱离”驾驶操作。比如自适应巡航和车道保持,这两个典型的自动驾驶系统的功能,实现了一种近乎是人类司机操作的效果,虽然不同车企开发的功能的有效性不同,但没有一家的系统能实现真正意义上的自动驾驶。
某些时候,车企还出于增加卖点、吸引资本注意的目的,夸大自己的自动驾驶功能,甚至暗示消费者无需接管。
在很长一段时间里,特斯拉就将AutoPilot(高级辅助驾驶系统),当成“自动驾驶”对外宣传,直到发生多次安全事故,才不得不改口。而即便现在,特斯拉最高阶的软件包FSD,也被称为完全自动驾驶。马斯克还声称,这套方案足够实现“完全自动驾驶”,“完全的意思是,汽车能够从家中开车去工作,在途中几乎不需要驾驶员操作。”
把视角放回国内,蔚来汽车在Nio Day上发布了预计在今年四季度交付的首款电动轿车ET7,同时发布了首个自动驾驶平台系统NAD(Nio Autonomous Driving),表示将从辅助驾驶(assisted driving)升级为自动驾驶(autonomous driving)。
尽管很多车企、自动驾驶技术厂商,都声称自己拥有L3以上级别的自动驾驶技术,但实际上可能没有这么乐观。
“目前国内的自动驾驶水平还没到L3,主要靠产业吹。”一位长期研究造车新势力的分析师曾对深燃表示,所谓的L3,其实是一些结构化道路的L3功能,也称为有限的特定场景的L3自动驾驶,而一些车企如特斯拉的自动召唤,只算是L4中的一个很小的应用场景。
为此,自动驾驶公司Waymo首席执行官John Krafcik就通过媒体回怼了马斯克:Waymo研发的是“完全自动驾驶系统”,特斯拉提供了“较为出色的驾驶辅助系统”,两家公司在自动驾驶领域聚焦的并不是同一件事情,根本无法相提并论。
Waymo还指责自动驾驶一词正在被一些汽车企业滥用,这会使得公众误解辅助驾驶系统功能。最近,德国法院也在禁止特斯拉在其网站及其他广告中使用带有“Autopilot”或“完全自动驾驶功能”的字眼,理由是存在误导倾向。
无法避免的corner case
除了部分企业对自动驾驶的宣传存在问题外,长期研究AI的技术人员李亮还表示,目前自动驾驶的算法本身也存在局限性。“所有新造车在做自动驾驶的时候,其实靠的是AI算法,也就是基于深度学习,或者说深度神经网络的原理去实现的。”
深度学习的工作原理是怎么样的?李亮举了一个例子:你给AI机器看猫的照片,这些猫各有各的形态和颜色,给机器看了100张之后,系统能够根据概率推算出下一张新的照片是不是一只猫。
因此,深度学习的判断逻辑是基于相关性的,机器会根据概率推导。比如,90%的概率由a推导到b,10%的概率由a推导到c,但是深度学习是没有探索环境的因果模型,哪些事件导致了其他事件,以及下一步会发生什么,目前的深度学习是无法判断的。说白了,深度学习还不能理解因果关系,也就意味着,总会出现一些极端情况是机器无法识别的。
“这在专业领域叫corner case(边角案例),按照深度学习的逻辑来说,AI是按照相关性来判断事物的,所以永远无法达到100%的准确率。”李亮进一步解释道,而AI的学习原理决定了它只认识之前见过的,而无法识别新接触的事物,“当面对训练数据中未包含的新情况时,它们没有人类的创造性和灵活性,也很容易出问题”。
这就涉及到安全问题。“只有当机器的精确度和安全度,远超于人类驾驶员的时候,也就是说,机器出事故的概率远小于人类驾驶员出事故的概率的时候,也许L5全自动驾驶上路才是合适的。”李亮告诉深燃,“为了保证安全,技术层面以外,法律法规也需要适配自动驾驶的边界。”
不过,尽管各家的宣传都说自家的技术在L2或L2级别以上,可实际上研发配置的自动驾驶技术水平参差不齐。
就现阶段来说,新造车阵营的自动驾驶技术更值得关注,比如自动辅助导航驾驶功能(即Navigate on Autopilot)。其中特斯拉、蔚来、小鹏各家都先后发布了此种功能,只不过名称不同。
所谓自动辅助导航驾驶功能,就是在L2辅助驾驶导航的基础上,结合了车机导航的信息,可以根据设置的路段,在高架、高速路上实现自动调节限速、自动变道超车、自动进出匝道等功能。这些功能向更高级别的自动驾驶更近了一步,算是自动驾驶中比较高阶的功能,但仍属于L2级别的范畴。
以在高速上出入匝道这一功能为例,李亮称,实现这一功能,需要输入庞大的数据包,包含大量的路况如路牌、出入口的信息等,通过芯片计算出具体的信息,再将信息传导到电机、刹车转向灯等硬件上,也就是说,做到这一功能其实需要强大的数据处理能力、以及相应的硬件支持能力。
“真正能够做到这些的企业,并不多。”他表示。