『3D视觉工坊』自动驾驶综述|定位、感知、规划常见算法汇总( 二 )
1.定位(1)基于激光雷达的定位经典方法提出了一种结合三维点配准算法的多层自适应蒙特卡罗定位(ML-AMCL)方法 。 为了估计汽车姿态 , 从三维激光雷达测量中提取水平层 , 并使用单独的AMCL实例将层与使用三维点注册算法构建的三维点云地图的二维投影对齐 。 对于每个姿态估计 , 对一系列的里程测量进行一致性检查 。 将一致的姿态估计融合到最终的姿态估计中 。 该方法在实际数据上进行了评估 , 得到相对于GPS参考的位置估计误差为0.25m 。 然而 , 地图是昂贵的存储 , 因为它是一个三维地图 。 Veronese等人提出了一种基于MCL算法的定位方法 , 该方法通过二维在线占有栅格地图和二维离线占有栅格地图之间的地图匹配来校正粒子的姿态 , 如下图所示 。 评估了两种地图匹配距离函数:改进了传统的两个栅格地图之间的似然场距离 , 以及两个高维向量之间的自适应标准余弦距离 。 对IARA自动驾驶汽车的实验评价表明 , 利用余弦距离函数 , 定位方法可以在100hz左右工作 , 横向和纵向误差分别为0.13m和0.26m 。
【『3D视觉工坊』自动驾驶综述|定位、感知、规划常见算法汇总】
文章图片
(2)激光雷达和相机方式定位一些方法利用激光雷达数据建立地图 , 利用摄像机数据估计自动驾驶汽车相对于地图的位置 。 Xu等人提出了一种立体图像与三维点云地图匹配的定位方法 。 地图由一家地图公司(http://www.whatmms.com)生成 , 由几何数据(纬度、经度和海拔)和从里程表、RTK-GPS和2D激光雷达扫描仪获取的缓解数据组成 。 他们将地图的三维点从真实坐标系转换到摄像机坐标系 , 并从中提取深度和强度图像 。 采用MCL算法 , 通过将汽车摄像机拍摄的立体深度和强度图像与从3D点云地图中提取的深度和强度图像进行匹配来估计汽车的位置 。 该方法在实际数据上进行了评估 , 并给出了0.08m到0.25m之间的位置估计误差 。 VIS16提出了一种将地面全景图与一年中不同季节拍摄的卫星图像相匹配的自动驾驶汽车定位方法 。 在他们的方法中 , 激光雷达数据被分为地面/非地面类别 。 接下来 , 利用激光雷达数据将全景相机拍摄的自驾车地面图像分割成地面/非地面区域 , 然后进行扭曲以获得鸟瞰图 。 利用kmeans聚类将卫星图像分割成地面/非地面区域 。 然后利用MCL将鸟眼图像与卫星图像进行匹配 , 估计姿态 。 该方法在NavLab11自动驾驶汽车上进行了验证 , 获得了3m~4.8m的位置估计误差 。
(3)基于相机的定位方式有些方法主要依靠摄像机数据来定位自驾车 。 Brubaker等人提出了一种基于视觉里程和道路地图的定位方法 。 他们使用OpenStreetMap , 从中提取出感兴趣区域内连接他们的所有十字路口和所有可行驶道路(以分段线性段表示) 。 然后建立了一个基于图的路线图表示法和一个汽车如何通过该图的概率模型 。 利用这个概率模型和视觉里程测量 , 他们估计汽车相对于路线图的位移 。 使用递归贝叶斯滤波算法 , 通过利用图形的结构和车辆如何移动的模型(通过视觉里程计测量)在图形中执行推断 。 该算法能够通过增加当前姿势位于与最新汽车运动(直线行驶距离和最近的曲线)相关的图形点的概率 , 并通过降低其位于不相关的点的概率来精确定位汽车在图形中的位置 。 定位方法在KITTI视觉里程数据集上进行评估 , 并在行驶52秒后能够在包含2150公里可行驶道路的18平方公里地图上定位车辆 , 精度为4米 。 一些方法使用相机数据来构建特征地图 。 Ziegler等人描述了自主车辆Bertha在历史悠久的Bertha-Benz纪念路线上自主驾驶所使用的定位方法 。 提出了两种基于互补视觉的定位技术:基于点特征的定位(PFL)和基于车道特征的定位(LFL) 。 在PFL中 , 使用从当前相机图像中提取的DIRD描述符 , 将当前相机图像与先前在映射过程中获取的相机图像序列的图像进行比较 。 从映射过程中捕获的图像的全局位置恢复全局位置估计 。 在LFL中 , 地图半自动计算 , 提供道路标记特征(水平道路信号)的全局几何表示 。 通过检测从摄像机图像的鸟瞰图中提取的道路标记特征并将其与存储在地图中的水平道路信号相关联 , 将当前摄像机图像与地图匹配 。 然后 , 由PFL和LFL获得的位置估计被Kalman滤波器组合(作者不提供组合定位误差的估计) 。 Jo等人提出了类似于LFL的定位方法 。 一些方法使用相机数据来构造特征地图 , 但采用了其他类型的特征 。 Radwan等人提出了一种基于文本特征检测的定位方法 。 现成的文本提取技术用于识别环境中的文本标签 。 采用MCL算法对多个观测值进行融合 。 该方法在实际数据上进行了评估 , 并给出了1m到25m之间的位置估计误差 。 Spangenberg等人提出使用杆状地标作为主要特征 , 因为它们是独特的、长期稳定的 , 并且可以被立体摄像机检测到 。 此外 , 它们允许内存高效的映射表示 。 特征检测主要由立体摄像机完成 。 定位采用MCL算法结合Kalman滤波器进行鲁棒性和传感器融合 。 该方法在自主车辆上进行了评估 , 得到了0.14m到0.19m之间的位置估计误差 。 一些方法建议使用神经网络对自动驾驶汽车进行定位 。 它们由相关的摄像机图像和相关的全局位置组成 。 在映射阶段 , 神经网络建立环境的表示 。 为此 , 它学习一系列图像和图像被捕获的全局位置 , 这些位置存储在一个神经地图中 。 在定位阶段 , 神经网络利用神经网络地图提供的先验知识来估计当前观测图像的全局位置 。 这些方法存在仪表刻度误差 , 难以实现大面积自主车辆的定位 。
推荐阅读
- 美肤瘦身知识很久转过几次帐,微粒贷就自动开通了82000!,小伙微信发发红包
- 汽车之家自动驾驶初创PIX描绘全新城市愿景,福布斯深度报道
- 中国冶金报社中冶京诚电网潮流自动化控制技术大幅提升企业自发电效益
- 科客Pro上手玩:120Hz瞳孔屏出众 视觉体验超一流,一加手机8
- 和讯科技爱奇艺腾讯视频等11家网站因默认自动续费被要求整改
- 科创板日报马斯克:穿行街道十字口是特斯拉自动驾驶下一升级重点
- 艺致产品设计研究所艺致工业设计:产品外观设计要注重视觉感受!
- PingWest品玩将在自动驾驶、智能交通等领域开展合作,广州开发区与百度签订战略合作协议
- RKE瑞科机器视觉检测设备对比人工检测的8大优势详解
- 互联快报网复亚智能推出适配DJI-M300无人机自动机场,全球首发