爱卡汽车|特斯拉的责任为零?千万别惯坏了它!,自动驾驶频频惹祸

[爱卡汽车科技频道原创]
在前几天的2020世界人工智能大会开幕式上 , 埃隆·马斯克在视频演讲中又一次谈起了特斯拉的自动驾驶技术 , 言语里依旧是满满的自信 。 他说:“特斯拉已经非常接近L5级自动驾驶了 , 将在今年完成开发L5级别的基本功能 。 实现L5级自动驾驶目前不存在底层的根本性挑战 , 但是有很多细节问题 。 ”
类似的话马斯克已经说过很多次了 。 只不过他每说一次 , 特斯拉L5级别自动驾驶的落地时间就会往后延期一次 。 除开时间的变动 , 他每次发言的核心信息始终是一致的:特斯拉的自动驾驶技术业界领先 , 并且很快就能投入实用 。
与此同时 , 特斯拉车主们却正在用行动抗议特斯拉自动驾驶的“不实宣传”和安全隐患 。 23名美国Model3(参数|询价)车主提起诉讼 , 称特斯拉Model3存在突然加速的问题 , 在司机没有踩下加速踏板的情况下 , 车辆会不给任何提示就突然失控、全力加速 。
在中国 , 也有Model3车主遇到了类似的问题 。 深圳的一辆Model3在AutoPilot(参数|询价)激活的状态下遇到前方有渣土车并线 , 车辆非但没有自动减速 , 反而突然加速撞了上去 。 特斯拉自带的多角度行车记录仪完整还原了这起令人匪夷所思的事故 , 号称具备完全自动驾驶能力的Model3居然没有识别到体型巨大的渣土车 , 为了跟上前车而突然加速 , 导致了事故的发生 。
特斯拉的免责声明
面对中美消费者的质疑 , 特斯拉表现得很淡定 , 声称根本不存在突然加速的问题 。 应对这样的维权事件 , 特斯拉已经非常有经验了 , 今年1月曾有127名美国特斯拉车主向NHTSA(美国国家公路交通安全管理局)投诉ModelS(参数|询价)/X/3车型存在突然加速的问题 , 涉及到110起事故 , 共导致52人受伤 , 但NHTSA的调查结论是特斯拉并没有责任 。
特斯拉在2015年10月升级的7.0系统带来了Autopilot功能 , 号称是“史上最大规模自动驾驶” 。 几个月之后的2016年1月20日 , 史上首例“自动驾驶”致死事故发生在中国 , 原因是出事的特斯拉ModelS未能识别到前方慢行的道路清扫车 。 2016年5月 , 特斯拉首次在美国发生致死事故 , 原因同样是未能识别到前方车辆 。 因Autopilot功能引发的事故已经数不过来了 , 多名车主因此丧生 , 但特斯拉从未被处罚 , 堪称“加州必胜客” 。 无论事故多么离谱、车辆的表现多么失常 , 特斯拉都可以凭借一条免责声明立于不败之地:“目前可用的(Autopilot)功能需要驾驶员主动进行监控 , 车辆尚未实现完全自动驾驶 。 ”
特斯拉一方面大谈L5级别自动驾驶、在功能命名上大玩文字游戏(Autopilot直译过来是自动驾驶 , 但其实只是驾驶辅助功能;FullSelf-Driving直译过来是完全自动驾驶 , 但其实只是在硬件上具备了潜力) , 另一方面却要求消费者承担全部风险 。
监管的缺失
特斯拉的一系列事故也反映了自动驾驶时代监管力量的缺失 。 当“自动驾驶”汽车发生事故时 , 我们很难通过影像来判断责任究竟是在车辆还是驾驶员 , 必须借助于对车辆行驶数据的分析 。 这就带来了2个问题:第一 , 车企提供的行驶数据是否真实可靠?第二 , 监管部门是否有能力对数据做出正确的解读?
在过去的几起事故中 , 车主要求特斯拉提供车辆行驶数据 , 但是遭到了特斯拉的拒绝 , 后者表示只会向监管部门提供行驶数据 。 但是监管部门对自动驾驶技术又有多少了解呢?自动驾驶是极其复杂的 , 算法是否存在缺陷、AI神经网络是否做出了错误的判断 , 即使是业界专家也很难得出结论 。 在感知、决策、执行这三个环节出现任何一个微小的错误都可能导致事故的发生 。 于是事故调查就变得对特斯拉有利了:监管部门和特斯拉关注的是驾驶员是否有效控制了车辆 , 而不是特斯拉的Autopilot是否存在缺陷 。
【爱卡汽车|特斯拉的责任为零?千万别惯坏了它!,自动驾驶频频惹祸】如果你的Model3突然失控加速 , 而你没有及时反应过来去踩刹车 , 那么不好意思 , 这完全是你的问题 。 至于Model3为何会突然失控加速 , 好像没有人去关心 。


推荐阅读