计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集( 二 )


计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集
本文插图
Nuscence
官网链接:https://www.nuscenes.org/object-detection?externalData=http://news.hoteastday.com/a/all&mapData=all&modalities=Any
论文链接:https://arxiv.org/abs/1903.11027
Nuscence数据集由1000个场景组成 , 每个scenes长度为20秒 , 包含了各种各样的情景 。 在每一个scenes中 , 有40个关键帧(key frames) , 也就是每秒钟有2个关键帧 , 其他的帧为sweeps 。 关键帧经过手工的标注 , 每一帧中都有了若干个annotation , 标注的形式为bounding box 。 不仅标注了大小、范围、还有类别、可见程度等等 。 这个数据集不久前发布了一个teaser版本(包含100个scenes) , 正式版(1000个scenes)于2019年发布 。 2020年会发布第二个版本 。
计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集
本文插图
Waymo
官网链接:https://waymo.com/open
官网下载地址:https://waymo.com/open/download/
官方数据格式解析:https://waymo.com/open/data/
代码地址:https://gitee.com/cmfighting/waymo_read
谷歌母公司Alphabet旗下的自动驾驶公司Waymo于2019年8月21日在其博客公布了数据开放项目(Waymo Open Dataset) , 该项目和前面的学术benchmark相比 , 是带有奖金的benchmark 。 就数据而言 , waymo包含3000段驾驶记录、时长共16.7小时、平均每段长度约为20秒;60万帧、共有大约2500万3D边界框、2200万2D边界框 , 以及多样化的自动驾驶场景 。
计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集
本文插图
PandaSet
官网链接:https://scale.com/open-datasets/pandaset
该自动驾驶数据集的采集场景是旧金山 。 一共含有48,000个相机图像 , 16,000次LiDAR扫描 , 100+个场景 , 每个场景8秒 , 总共含有28个注释类和37个语义细分标签 。 是一个融合工业界和学术界的自动驾驶场景目标检测数据集 。
计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集
本文插图
Oxford Robotcar
官网链接:https://robotcar-dataset.robots.ox.ac.uk/
文章链接:https://robotcar-dataset.robots.ox.ac.uk/images/robotcar_ijrr.pdf
该数据集由牛津大学机器人实验室提出 , 其雷达是Navtech CTS350-X毫米波调频连续波(FMCW)扫描雷达 , 在使用的配置中 , 它提供了4.38厘米的范围分辨率和0.9度的旋转分辨率 , 最大范围达163 m 。
计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集
本文插图
A*3D
官网链接:https://github.com/I2RDL2/ASTAR-3D#Dataset
数据集下载地址:https://github.com/I2RDL2/ASTAR-3D#Download
该数据集目前还在更新 , 在论文的中对比的对象为KITTI数据集 , 一共包含230K人工标记的3D对象的注释在39179个激光雷达点云帧和对应面对的正面-RGB图像 。 该数据集在新加坡采集得到 。 文章中通过实验表示在A*3D数据集上训练后的模型在KITTI上具有一个比较好的表现 , 尤其是对moderate和hard类别 。
计算机视觉工坊汇总|基于激光雷达的3D目标检测开源项目&数据集
本文插图
SemanticKITTI
官网链接:http://semantic-kitti.org/
论文链接:https://arxiv.org/abs/1904.01416
benchmark: https://competitions.codalab.org/competitions/24025#learn_the_details-overview


推荐阅读