『3D视觉工坊』自动驾驶综述|定位、感知、规划常见算法汇总( 四 )


『3D视觉工坊』自动驾驶综述|定位、感知、规划常见算法汇总
文章图片
2)路线图创建创建路线图的最简单方法是从航空图像中提取道路形状的手动注释 。 然而 , 大型城市道路网所需的大量人工操作可能会使人工标注变得不可行 。 为此 , 人们提出了从航空图像自动生成道路图的方法 。
a)Urmson等人使用从航空图像中提取的道路形状的手动注释 , 以便为自动驾驶汽车的驾驶台创建道路图 。 得到的局部道路形状是准确的 , 但由于图像的分辨率和全局配准的影响 , 全局位置不太准确 。 为此 , 他们的定位方法采用位置滤波处理道路模型误差 。 Bender等人 。 BEN14还采用了自动车辆泊位的lanelet地图的所有元素和属性的手动标注 。 使用OSM格式和javaOSM编辑器 , 使用虚拟顶视图图像作为LANELET的手动注释的基础 。
b)自动生成从航空图像自动生成路线图的方法很多 。 韦格纳等人使用高阶条件随机场(CRF)通过将图像分割为超级像素并添加连接这些超级像素的路径来模拟道路网络的结构 。 Mnih和Hinton使用卷积神经网络(CNN)获得路段 。 道路分割的一个补充任务是从俯视图或正面图像中检测车道 。 Aeberhard等人对于宝马的自动驾驶汽车 , 使用地面栅格地图 , 其中每个单元表示具有高反射率的地面位置的概率 。 采用二次多项式模型提取道路边界 。 车道定位与数字地图结合使用 , 以获得对环境的更高层次的理解 。 地图主要由两层组成:语义几何层和定位层 。 语义几何层包含车道模型几何和车道连通性等高层语义信息 。 定位层包含车道标线和道路边界 , 与GPS和车辆里程计一起 , 可用于将车辆匹配到地图上 。
Lee等人还使用激光雷达缓解数据来检测车道标记和摄像机图像 , 以防车道划分不明确 。 道路上的车道标记是为了在夜间与前照灯一起使用具有良好反光效果的特殊油漆而制成的 。 有了这个特性 , 激光雷达可以检测到道路标记 , 即使是在光照因雨或阴影而改变的情况下 。 基于摄像机图像的车道标线检测技术只在易受攻击的情况下运行(如背光和低光) 。 这种方法在韩国首尔2公里的航程中得到了成功的测试 。 Carneiro等人使用深度神经网络(DNN)来推断自主车辆IARA水平信号不良或无水平信号的车道的位置和相关特性 。 DNN将LIDAR缓解栅格地图分割为道路栅格地图 , 将非零代码(从1到16)分配给属于车道的地图单元 , 这些单元表示到车道中心的相对距离和单元中车道标记的类型 。 利用数十公里的道路标线数据集对DNN进行训练 , 使DNN的精度足以满足IARA的实际自主驾驶 。 道路分割并不直接提供路线图 , 它定义地图单元是否是道路的一部分 。 为了解释道路分割、提取拓扑结构和构建路线图 , 需要一个复杂的后处理流水线 。 巴斯塔尼等人提出了道路追踪方法 , 该方法寻求直接从CNN生成路线图 , 而不是依赖中间图像表示 。 它使用一个迭代的图形构建过程 , 一次添加一个单独的路段 , 并使用CNN来决定下一个要添加的路段 。 对15个城市24平方公里的航空影像进行的逐点匹配检验 , 平均误差为5% 。
4.移动物体跟踪运动目标跟踪(MOT)子系统(也称为多目标检测与跟踪-DATMO)负责检测和跟踪自动驾驶汽车周围环境中运动障碍物的姿态 。 该子系统对于使自主车辆做出决策和避免与潜在移动物体(如其他车辆和行人)碰撞至关重要 。 随着时间的推移 , 移动障碍物的位置通常是根据测距传感器(如激光雷达和雷达)或立体相机捕获的数据来估计的 。 单目摄像机的图像能够提供丰富的视觉信息 , 可以用来改进运动障碍假设 。 针对传感器测量的不确定性 , 采用Bayes滤波器(如Kalman和粒子滤波器)进行状态预测 。 MOT方法主要分为六类:传统的、基于模型的、基于立体视觉的、基于栅格地图的、基于传感器融合的和基于深度学习的 。


推荐阅读