TechSugar|特斯拉不赞成传感器融合,自动驾驶汽车怎么办?


在耶路撒冷实测的L4汽车正在利用AI先进技术 , 在多个独立的计算机视觉引擎上运行不同的神经网络算法 。 多个神经网络会产生‘内部冗余’ 。
文︱立厷
图︱网络
特斯拉的首席执行官埃隆·马斯克(Elon Musk)在其第一次“Autonomy Day”活动中抨击激光雷达(LiDAR)是“一个傻瓜的差事” , 并说“依赖LiDAR的任何人都注定要失败 , ”因为它是“不必要的昂贵的传感器 。 ”而传感器融合(Fusion)却是当下的热门话题之一 。
传感器的发展速度和水平决定了未来自动驾驶(AD)的进展快慢 , 这话并不过分 。 没有传感器 , 自动驾驶汽车就不可能实现 。 传感器可以使汽车看到和感知道路上的一切 , 并收集安全驾驶所需的信息 , 通过中央处理器为汽车控制装置发送适当的指令 , 如转向、加速和制动;联网传感器收集的实际路径、交通堵塞和道路障碍物信息 , 可以在联网汽车之间共享;地图信息的处理和分析可以构建从A点到B点的路线 。
唯有传感器融合
说到高级驾驶辅助系统(ADAS)和自动驾驶汽车(AV) , 一切都与传感器有关 , 都需要摄像头、雷达和LiDAR、超声波等传感器来查看周围环境 。 视听设备还需要计算能力和人工智能(AI)来分析多维(有时是多源)数据流 , 以便为车辆提供实时的整体和统一视图 。
毋庸讳言 , 对于每个终端市场来说 , 都有其特定于应用的需求 , 而一种感测方式无法满足所有需求(尽管特斯拉可能不会同意) 。 对于ADAS和AV , 永远不会有一种单一的最有效方法来实现感测技术 。
在搭配(mix)和匹配不同的传感器后 , AV开发人员正在寻找协调多个传感器生成数据的方法 。 他们相信 , 融合的感知数据才能更接近人类的感知 。
那么 , 将AV传感器融合到什么程度呢?现在 , 一个神奇的数字可能是6 , 因为每家汽车OEM都会以6个传感器来决定如何以自己的方式实现 , 他们都会创建自己的独特方法将传感器集成到未来车辆中 。 目的只有一个——以正确的传感器组合确保设计不会损害车辆的主动安全性 。
融合多少种传感器?
时至今日 , 一些汽车OEM根本不使用LiDAR , 而是押注传感器和基于AI计算的结合 , 以实现高自动化水平 。 最引人注目的是特斯拉 , 其方法是在车辆周围放置使用伪LiDAR方法的摄像头 , 以生成汽车周围环境的准确3D图像;用AI计算分析车道标记并预测其他车辆的行为 。 它不仅分析图像 , 还分析图像中的各个像素 , 以预测每个像素的深度 。 丰田汽车也正在研究类似的方法 。
马斯克是一位有影响力的思想家 , 他的做法可能会对整个行业产生影响 。 特斯拉Model S是第一款具有AD功能的汽车 , 自其发布以来 , 由于驾驶员对ADAS系统依赖过大 , 发生了许多事故 。
其实 , 马斯克并不是反对在所有应用中使用LiDAR , 其另一家公司的SpaceX就依靠DragonEye LiDAR来生产Dragon和Crew Dragon航天器 。 之所以没有在汽车中使用 , 主要应该是成本问题 。
TechSugar|特斯拉不赞成传感器融合,自动驾驶汽车怎么办?
本文图片

马斯克:只有这玩意儿才值得用昂贵的传感器
事实上 , 现在AV开发商的共识是:如果视觉系统很难猜测正在看的东西 , 或者更糟的是对下一步工作感到困惑 , 最好的办法就是增加更多传感器 , 如雷达和LiDAR 。 将所有内容融合在一起 , 可以使AV有更大的信心 , 且感知系统更接近现实 。
Mobileye的传感器融合方法有点像特斯拉 。 其L4自动驾驶汽车没有使用雷达或LiDAR , 仅使用12个摄像头——“VIDAR” , 可实现类似LiDAR的输出 。 Mobileye总裁兼首席执行官Amnon Shashua说:“在耶路撒冷实测的L4汽车正在利用AI先进技术 , 在多个独立的计算机视觉引擎上运行不同的神经网络算法 。 多个神经网络会产生‘内部冗余’ 。 ”


推荐阅读