数码相机|屡次拿到最高安全评级,为何斯巴鲁“偏爱”双目视觉
本文插图
上周 , Xilinx宣布将与斯巴鲁(Subaru)合作 , 基于汽车级Zynq UltraScale+多处理器芯片系统(MPSoC) , 为其下一代双目高级驾驶辅助系统(ADAS)提供算力支持 。
密集立体视觉系统的一般处理流程是图像采集、立体处理、视差到3D映射 , 最后是检测算法的应用 。 利用两个摄像头 , 以24帧每秒的最大帧率获得一系列优化的图像 。
【数码相机|屡次拿到最高安全评级,为何斯巴鲁“偏爱”双目视觉】按照此前计划 , 斯巴鲁在2020年将推出L2级(类似于凯迪拉克超级巡航、日产ProPilot Assist和特斯拉Autopilot) 。
这套新系统包括实现更宽视角的立体摄像机和更宽的基线 。 与雷达相结合 , 它在车辆周围形成360度感知 , 扩大了碰撞前制动的工作范围 , 以覆盖低能见度转弯和十字路口 。
按照斯巴鲁的说法 , 新一代系统采用的图像处理技术可以扫描立体摄像机捕捉到的所有信息 , 并创建高精度的3D点云 , 从而更好的应对高级别自动驾驶场景 。
一、进一步提升双目性能斯巴鲁的这套名为Eyesight的双目视觉ADAS系统由来已久 , 这家日本汽车制造商从1999年开始量产搭载双目立体摄像头 , 并延续至今 。
与常见的基于雷达+单目的ADAS感知方案不同 , 双目立体系统使用视频流的算法分析 , 斯巴鲁第一代EyeSight2008年正式亮相 , 提供了碰撞前紧急制动、行人检测、车道偏离预警 , 以及自适应巡航控制等功能 。
两年后的2010年 , 第二代EyeSight上市 。 2015年开始 , 第三代EyeSight对性能再次做了提升 , AEB的最高时速做到了50km/h(上一代为40km/h) , ACC可以实现180km/h(上一代为140km/h)的工况 。
这一代双目系统 , 外壳体积缩小了15% , 对摄像头进行了升级(彩色摄像头 , 可检测刹车灯) , 并且测距范围进一步提升40% , 以及更宽的视角 。 这个系统在2018年美国监管机构的正面碰撞测试中拿到了最高评级 。
而即将上市的新一代系统 , 则进一步提升测距范围和视场角 。 按照理论逻辑 , 视差映射与距离成反比 。 单像素测量的像素视差在远距离测量中有较大的错误率 , 但在较短的距离(<100米)中系统误差减小 。
而立体视觉系统生成两种类型的环境数据:基于远距离的复杂驾驶环境密度图、以及由结构化道路、跟踪长方体(车辆)和行人组成的一系列几何元素 。
这些计算是费时且密集的 。 为了根据接收到的环境数据进行实时决策 , 系统需要大量的数据带宽和处理能力 , 因此并行计算是必须的 。
本文插图
这就是为什么斯巴鲁在新一代系统中选择Xilinx UltraScale+ SoC作为主处理芯片 。
Zynq UltraScale+ MPSoC为ADAS提供了关键特性 , 包括在Xilinx FPGA上高速并行视频和图像处理 , 算法处理由Arm Cortex-A53完成 , 实时事件处理则交给Arm Cortex-R5 。
此外 , UltraScale+还具备一系列安全辅助功能 , 包括电源管理、纠错、加密加速器和加密密钥的安全存储 。
二、双目方案安全优势突出目前 , 在全球范围内 , 包括Veoneer、博世、Denso、大陆、日立以及来自中国的中科慧眼、华芯技研、元橡科技等数家公司都在推动双目视觉方案的更多落地 。
比如 , 在戴姆勒L3级别的量产方案中 , 就选择博世的第三代多功能/立体摄像头 , 像素从120万提升到了200万 , 视场角从±25°提升到±50° , 并且加入了纹理识别 , 密集光流法 , 卷积神经网络等技术 。
而日立汽车系统公司也在早前宣布 , 已将人工智能应用于为AEB功能设计的立体摄像机 。 基于数十万条数据作为训练库 , 实现了夜间行人检测功能 。
推荐阅读
- 康帝心理说感情|“你父亲,要么醒来成植物人,要么放弃治疗拿到100万意外险”
- 健康界|拿到血常规报告脑壳就大了?只需要看懂这3个数据就足够了
- 汽车|1912年,谁拿到了中国汽车的第一块牌照?
- HongKongFilm|华语电影应该设立一个“梁家辉”影帝奖,看50年后有没人能拿到
- 油耗|丰田靠着这个低油耗技术,拿到了超过1500万的销量
- 路人情感|“你拿到拆迁款就有钱给彩礼了,快来娶我吧”“我准备娶别人了”
- 少年当自强|“儿媳,拿到年终奖了就赶紧上交,我等着买衣服”“别想”
- 验房|新房拿到手如何验房?需要检查哪些地方?老师傅直言:只需看5点
- 女孩|当代年轻女孩,居然害怕去体检中心,拿到报告崩溃了(漫画)
- 观音山|广东一景区悬赏70万征集下联,短短7字,5年了,依旧没人拿到奖金