『3D视觉工坊』自动驾驶综述|定位、感知、规划常见算法汇总( 五 )


(1)TraditionalBasedMOT传统的MOT方法主要包括三个步骤:数据分割、数据关联和过滤 。 在数据分割阶段 , 利用聚类或模式识别技术对传感器数据进行分割 。 在数据关联步骤中 , 使用数据关联技术将数据段与目标(移动障碍物)关联 。 在滤波阶段 , 对于每个目标 , 通过取分配给目标的数据的几何平均值来估计位置 。 位置估计通常由卡尔曼滤波或粒子滤波进行更新 。
(2)ModelBasedMOT基于模型的方法直接从传感器数据中推断 , 使用传感器的物理模型和对象的几何模型 , 并使用非参数滤波器(如粒子滤波器) 。 不需要数据分割和关联步骤 , 因为几何对象模型将数据关联到目标 。
(3)StereoVisionBasedMOT基于立体视觉的方法依靠立体图像对提供的颜色和深度信息来检测和跟踪环境中的运动障碍物 。 Ess等人提出了一种障碍物检测和识别方法 , 该方法仅使用来自前视立体摄像机的同步视频 。 他们的工作重点是基于行人和汽车探测器每帧输出的障碍物跟踪 。 对于障碍物检测 , 他们采用了一种带有方向梯度直方图(HOG)特征的支持向量机(SVM)分类器 , 将每个图像区域分类为障碍物或非障碍物 。 对于障碍物跟踪 , 他们应用一种假设和验证策略 , 将一组轨迹拟合到可能检测到的障碍物上 , 使得这些轨迹一起具有很高的后验概率 。 候选轨迹集由扩展卡尔曼滤波器(EKFs)生成 , EKFs由障碍物检测初始化 。 最后 , 使用模型选择技术仅保留一组解释过去和现在观测结果的最小且无冲突的轨迹 。 对于MOT , 采用半全局匹配(SGM)方法从立体图像对中重构出稠密视差图像 。 三维环境中的所有障碍物都由一组称为超级像素或stixels的垂直方向的薄矩形来近似 。 使用Kalman滤波器跟踪随时间变化的stixel 。 最后 , 使用空间、形状和运动约束将stixel分割为静态背景和移动障碍物 。 在时空分析的基础上 , 提出了一种基于外观的检测与识别方案 , 该方案利用特定类别(行人和车辆)模型 , 提高了视觉感知的鲁棒性 。
实时识别主要包括三个阶段:感兴趣区域(ROI)、障碍物分类和目标跟踪 。 Chen等人使用半全局匹配算法从立体图像对计算视差图 。 在视差图的辅助下 , 简单线性迭代聚类产生的图像分割边界分为共面边界、铰链边界和遮挡边界 。 利用改进的随机样本一致性(RANSAC)算法在自我运动估计过程中获得运动点 。 最后 , 根据边界类型和运动情况 , 采用超像素合并的方法提取运动障碍物 。
(4)GridMapBasedMOT基于栅格地图的方法首先构建动态环境的占用栅格地图 。 地图构建步骤之后是数据分割、数据关联和过滤步骤 , 以便提供场景的对象级表示 。 Nguyen等人提出了一种基于网格的立体摄像机运动目标检测与跟踪方法 。 他们的工作重点是行人检测和跟踪 。 从立体图像对重建三维点 。 利用逆传感器模型 , 基于相关的三维点估计网格地图中每个单元的占用概率 。 采用分层分割的方法 , 根据网格单元之间的区域距离 , 将网格单元划分成若干段 。 最后 , 采用交互式多模型(IMM)方法对移动障碍物进行跟踪 。 Azim和Aycard使用基于八叉树的3D局部占用栅格地图 , 该地图将环境划分为占用、自由和未知体素 。 在构建局部网格地图后 , 基于局部网格地图中自由空间和占用空间的不一致性 , 可以检测出移动障碍物 。 动态体素被聚集成移动的物体 , 这些物体被进一步划分成层 。 使用从每个层提取的几何特征 , 将移动对象分类为已知类别(行人、自行车、汽车或公共汽车) 。
(5)SensorFusionBasedMOT基于传感器融合的方法融合来自各种传感器(如激光雷达、雷达和照相机)的数据 , 以探索它们各自的特点 , 提高环境感知能力 。 Darms等人介绍了自动驾驶汽车“Boss”采用的基于传感器融合的运动车辆检测与跟踪方法(卡内基梅隆大学的汽车在2007年DARPA城市挑战赛中获得第一名) 。 MOT子系统分为两层 。 传感器层从传感器数据中提取特征 , 这些特征可用于根据点模型或盒模型描述移动障碍物假设 。 传感器层还尝试将特征与来自融合层的当前预测假设相关联 。 无法与现有假设关联的功能用于生成新的建议 。 对与给定假设相关联的每个特征生成观察 , 封装更新假设状态估计所需的所有信息 。 融合层根据传感器层提供的建议和观测 , 为每个假设选择最佳跟踪模型 , 并使用卡尔曼滤波器估计(或更新)假设状态的估计 。 Cho等人描述卡内基梅隆大学新的实验性自主车辆使用的新MOT子系统 。 以前的MOT子系统 , 由Darms等人提出 。 Mertz等人使用可直接从二维激光雷达、从三维激光雷达投影到二维平面或从多个传感器(激光雷达、雷达和相机)融合获得的扫描线 。 扫描线被转换成世界坐标并被分割 。 为每个线段提取直线和角点特征 。 分段与现有障碍物相关联 , 并使用卡尔曼滤波器更新目标的运动学 。 Byun等人合并由多个传感器(如雷达、二维激光雷达和三维激光雷达)生成的移动障碍物轨迹 。 将二维激光雷达数据投影到二维平面上 , 利用联合概率数据关联滤波器(JPDAF)跟踪运动障碍物 。 三维激光雷达数据被投影到一幅图像上 , 并使用区域增长算法分割成运动障碍物 。 最后 , 利用迭代最近点(ICP)匹配或基于图像的数据关联来估计或更新轨迹的姿态 。 Xu等人 。 XU15描述了卡内基梅隆大学的新型无人驾驶实验车对用于保持距离的移动障碍物的上下文感知跟踪 。 给定行为上下文 , 在道路网络中生成ROI 。 找到感兴趣区域内的候选目标并将其投影到道路坐标中 。 通过将来自不同传感器(激光雷达、雷达和摄像机)的所有候选目标关联起来 , 获得距离保持目标 。 薛等人融合激光雷达和摄像机数据 , 提高行人检测的准确性 。 他们利用行人高度的先验知识来减少错误检测 。 他们根据针孔摄像机方程 , 结合摄像机和激光雷达的测量来估计行人的高度 。


推荐阅读