百度背叛激光雷达路线了吗?( 七 )


数据获取的便捷让技术人员在面对新需求新任务时更多转向深度学习,过去系统内基于规则和传统学习方法实现的算法逐渐被深度学习挤压取代 , 特别是人工设计的后处理步骤大幅减少 , 策略和参数被「固化」 , 规避依靠频繁删减策略和调参解决问题 。
百度背叛激光雷达路线了吗?文章插图
△搭建规模化机器学习系统 – 高效率消化规模化测试中产生的海量数据人才结构方面 , 研发主力为有经验的深度学习专家 , 此阶段研发人员的核心工作可归纳为两方面:
1)根据任务制定标注规则 , 提出数据采集标注需求 , 完成网络结构选择或设计 , 训练并部署复杂的深度学习模型;
2)无人驾驶对计算实时性有着严苛要求 , 车载计算资源有限 , 鉴于DNN计算量大 , 算法上线前需要压缩模型以减小对于计算时间和空间的消耗 。
数据在第二阶段起到更重要的作用 , 增加训练数据量可有效提升模型效果 。 数据获取方式以定制化采集任务为主 , 重视数据规模和广度 , 如视觉感知数据可按地理位置、时间、天气等若干维度组合采样 , 保证训练数据对应用场景的全面均匀覆盖 。
阶段Ⅲ – 经过长时间规模化道路测试 , 各类任务对应的模型网络结构相对固定 , 模型预测头部问题收敛到特定的场景 。
此时 , 技术团队工作的重心转入对数据链路的精细化管理、对数据多样性和数据分布合理性的深耕以及对数据平台化能力的建设上 。 这一阶段要求研发人员的思维模式发生转变 , 从「设计算法解决问题」过渡至「用数据解决问题」 。
思维工作模式的变化带来对组织能力更高的要求 。 促成数据到模型能力的高效流转首先需要搭建一套中心化框架平台 , 将工程团队擅长的自动化、分布式和高并发与算法团队长期沉淀的经验与代码相结合 , 从车端数据logging系统设计 , 到有效数据的挖掘清洗和离线标注 , 最后到模型的训练迭代和评测部署 , 构成一个闭环结构 。
借助平台 , 算法人员的精力最大化投入到数据分析和标注策略设计中 , 新团队成员通过使用平台提供的功能接口也能更高效的产出模型 , 减少学习成本 , 人员的单体经验差异被抹平 , 数据组织能力上升到一个新高度 。
精准数据挖掘– 进入第三阶段 , 单纯追求训练数据规模已无法有效提升网络性能 , Apollo Lite视觉感知10路摄像头每秒共产生大于1GB的图像数据 , 若不加选择的收集使用 , 不仅存储标注成本巨大 , 从模型迭代效率考虑同样不现实 。 如果把数据比喻成深度学习的原矿石 , 该阶段我们需要设计一套「炼金术」从中提炼出对模型迭代最有效的信息 。
Apollo Lite提炼数据背后思想简单有效 – 「Cross checking」, 真实物理世界是连续的 , 物体不会凭空出现或消失 , 不同位置类型传感器间的观测应是「自洽」的 。
当感知系统的观测违背基本物理假设时 , 大概率对应这一时刻的模型输出缺陷 。 基于Cross checking原理 , Apollo Lite视觉感知系统内设计实现了多层次挖掘策略 , 从单帧到连续帧时序 , 从单摄像头到多相机融合 , 从感知结果到地图标注和安全员行为校验 , 每一环节都能够通过观测量间的自洽性判断精准定位线上模型的潜在缺陷 , 发掘长尾数据 , 通过logging标签自动映射数据和对应的模型任务 。
今天 , 参与Apollo Lite关键感知模型迭代的新增数据中超过80%来自线上数据挖掘 , 是一年前的3倍 。 Cross checking本身是一个在图像区域内定位问题的过程 , 挖掘数据配套的标注策略不需面向全帧 , 从而更轻量经济 , 带来近6倍标注效率提升 。
高效规模化机器学习– 路测产生的海量数据配合精准挖掘与高度Learning化的感知框架是Apollo Lite持续进化的基础 。 Apollo Lite视觉系统由31个深度神经网络构成 , 能够实时处理10路高清视频数据 , 并输出超过200组感知信息 。


推荐阅读