1. KITTI
链接:http://www.cvlibs.net/datasets/kitti/
适用任务:detection
简介:KITTI数据集由德国卡尔斯鲁厄理工学院和丰田美国技术研究院联合创办,是目前国际上最大的自动驾驶场景下的算法评测数据集。该数据集用于评测立体图像(stereo),光流(optical flow),视觉测距(visual odometry),3D物体检测(object detection)和3D跟踪(tracking)等计算机视觉技术在车载环境下的性能。KITTI包含市区、乡村和高速公路等场景采集的真实图像数据,每张图像中最多达15辆车和30个行人,还有各种程度的遮挡与截断。整个数据集由389对立体图像和光流图,39.2 km视觉测距序列以及超过200k 3D标注物体的图像组成,以10Hz的频率采样及同步。对于3D物体检测,label细分为car, van, truck, pedestrian, pedestrian(sitting), cyclist, tram以及misc。
2. ModelNet
链接:http://modelnet.cs.princeton.edu/
适用任务:classification
时间:2015年
简介:Modelnet40 dataset包含约40个对象类别(如飞机,表格,植物等),用三角形网格表示的12311个CAD模型。数据分为9843个训练样本和2468个测试样本。
3. ShapeNet
链接:https://www.shapenet.org/
适用任务:segmentation
时间:2016年
简介:ShapeNet是一个由对象的三维CAD模型表示的形状存储库,注释丰富,规模较大。ShapeNet包含来自多种语义类别的3D模型,并按照WordNet分类法组织它们。它是一组数据集,为每个3D模型提供许多语义标注,如一致的刚性对准、零件和双边对称平面、物理尺寸、关键字以及其他计划的标注。注释通过基于web的公共接口提供,以支持对象属性的数据可视化,促进数据驱动的几何分析,并为计算机图形学和视觉研究提供大规模定量基准。ShapeNet已经索引了超过300万个模型,其中22万个模型被分为3135个类别(WordNet synsets)。
4. PartNet
链接:https://shapenet.org/login/
适用任务:segmentation
简介:PartNet用于细粒度和分层零件级3D对象理解的大规模基准。数据集包含573585个零件实例,涵盖26671个3D模型,涵盖24个对象类别。该数据集启用并充当许多任务的催化剂,例如形状分析,动态3D场景建模和仿真,可负担性分析等。数据集建立了用于评估3D零件识别的三个基准测试任务:细粒度语义分割,分层语义分割和实例分割。
5. PartNet-Symh(PartNet Symmetry Hierarchy Dataset)
链接:http://kevinkaixu.net/projects/partnet.html
适用任务:segmentation
简介:该数据集通过为每个形状添加细粒度部分的递归层次结构的方式,对PartNet数据集进行了增强。
6. S3DIS
链接:http://buildingparser.stanford.edu/dataset.html#Download
适用任务:segmentation
简介:该数据集提供了来自 2D、2.5D 和 3D 域的各种相互注册的模态,以及实例级语义和几何注释。它包含超过 70,000 张 RGB 图像,以及相应的深度、表面法线、语义注释、全局 XYZ 图像(均采用常规和 360° 等距柱状图的形式)以及相机信息。它还包括注册的原始和语义注释 3D 网格和点云。该数据集能够开发联合和跨模式学习模型以及利用大型室内空间中存在的规律性的潜在无监督方法。
7. ScanNet
适用任务:classification, segmentation
简介:ScanNet是一个RGB-D视频数据集,在超过1500次扫描中包含250万次视图,附加了3D相机姿态、表面重建和实例级语义分段的注释。
8. The Princeton Shape Benchmark
适用任务:matching, classification, clustering
简介:研究人员从互联网上搜集了大量的三维模型,并对这些三维模型进行统一的格式转换,转换成一种简单的格式并且采用人工方式进行分类,提供了161个小类、粗糙一级的6大类、更粗糙一级的两大类共1814个三维模型。
9. Sydney Urban Objects Dataset
适用任务:matching, classification
简介:这个数据集包含用Velodyne HDL-64E LIDAR扫描的各种常见城市道路对象,收集于澳大利亚悉尼CBD。含有631个单独的扫描物体,包括车辆、行人、广告标志和树木等,可以用来测试匹配和分类算法。
10. ASL Datasets Repository
适用任务:registration
简介:该数据集主要被用于特殊环境和条件下点云配准算法的验证。
11. Large-Scale Point Cloud Classification Benchmark
适用任务:classification
简介:本数据集提供了超过40亿个自然场景下三维点的点云数据,它包含了城市场景下的诸多要素:教堂、街道、铁轨、广场、村庄、足球场等。这些点云数据都是采用当前最先进的设备在静止状态下获取的,包含了非常精细的细节信息。目的是帮助如深度神经网络等数据驱动的方法来发挥他们的作用,学习到更加丰富的3D表达。
12. Canadian Planetary Emulation Terrain 3D Mapping Dataset
适用任务:3D Lidar SLAM
时间:2013年
简介:该数据集是在加拿大两个独特的模拟行星环境中收集的三维激光扫描的数据。这些采集场地在受控环境中提供模拟的行星地形,并以可管理的规模进行算法开发。该数据集被细分为四个独立的子集,使用安装在移动漫游车平台上的平移激光测距仪收集。这些数据可以被用来开发基于非结构化自然地形的3D 激光SLAM算法。所有数据都以人类可读的文本文件形式呈现,并附有Matlab 解析脚本以方便使用。
13. Radish
适用任务:SLAM
时间:2003年-2009年
简介:该数据集涵盖了真实机器人获取的里程计、激光、声纳等传感器数据,还提供了由机器人和人工生成的环境地图。
14. IQmulus & TerraMobilita Contest
适用任务:classification, segmentation, detection
时间:2014年
简介:该数据库包含由3亿点组成的巴黎密集城市环境的三维MLS数据。在这个数据库中,对整个三维点云进行分割和分类,即每个点包含一个标签和一个类。因此,可用于对检测-分割-分类方法进行点向评估。
15. Oakland 3D Point Cloud Dataset
适用任务:classification
时间:2009年
简介:该数据集是从CMU校园周围的城市环境中收集的三维点云激光数据。
16. Robotic 3D Scan Repository
适用任务:SLAM
时间:2017年
17. Ford Campus Vision and Lidar Data Set
适用任务:SLAM
时间:2009年
简介:我们提供了一个由一辆改良的福特F-250皮卡收集的数据集。该车辆配备了一个专业的组合导航设备ApplanixPOS LV和消费者惯性测量单元(IMU),一个Velodyne三维激光雷达扫描仪,两个推扫式(push-broom)前视Riegl激光雷达,和一个PointGrey Ladybug系列全景相机。在这里,我们展示了这些安装在汽车上的传感器的时间对齐数据。这些数据集中的车辆路径轨迹包含几个大的和小的环路闭包,这对于测试各种最新的计算机视觉和SLAM算法应该是有用的。数据集的大小约100 GB。
18. PASCAL3D
适用任务:detection
时间:2014年
简介:PASCAL 3D 是一个 3D 物体检测和姿态识别数据集,包括 PASCAL VOC 2012 中 12 个类别物体的 3D 标注,平均每个类别中包含 3000 个实例。这12个类物体都是刚体,也就是说,它们的三维形状相对具有不变性和一致性,可以用某一/几种通用的三维几何模型做模板进行配准和位姿估计。
19. 3D MNIST
适用任务:classification
时间:2016年-2019年
简介:3D MNIST 是一个3D数字识别数据,用以识别三维空间中的数字字符。
20. nuScenes
适用任务:detection, tracking, prediction
时间:2019年
简介:自动驾驶公司Motional(前身nuTonomy)建立的大规模自动驾驶数据集,该数据集不仅包含了Camera和Lidar,还记录了雷达数据。这个数据集由1000个scenes组成,每个scenes长度为20秒,包含了各种各样的情景。在每一个scenes中,有40个关键帧(key frames),也就是每秒钟有2个关键帧,其他的帧为sweeps。关键帧经过手工的标注,每一帧中都有了若干个annotation,标注的形式为bounding box。不仅标注了大小、范围、还有类别、可见程度等等。
这个数据集在sample的数量上、标注的形式上都非常好,记录了车的自身运动轨迹(相对于全局坐标),包含了非常多的传感器,可以用来实现更加智慧的识别算法和感知融合算法。
21. PreSIL Dataset
适用任务:detection, tracking, prediction
时间:2019年
简介:用于自动驾驶汽车感知的精确的合成图像与LiDAR数据集。
22. BLVD
适用任务:detection, tracking
时间:2019年
简介:该数据集主要侧重点在其数据集关注点在车辆自我周围物体的有意义的动态变化,因此引入了这么一个数据集BLVD,这是一个大规模的5D语义基准,它没有集中于之前已经充分解决的静态检测或语义/实例分割任务。取而代之的是,BLVD旨在为动态4D(3D 时间)跟踪,5D(4D 交互式)交互式事件识别和意图预测的任务提供一个平台。BLVD数据集包含654个高分辨率视频剪辑,这些剪辑来自中国江苏省常熟市,提取了120k帧。官方完全注释了所有帧,并总共产生了249129个3D标注,以进行跟踪和检测任务。
23. PedX
适用任务:pose estimation
时间:2018年
简介:PedX由超过5000对高分辨率(12MP)立体图像和LiDAR数据组成,并在全局坐标系中提供二维(2-D)图像标签和行人的3D标签。数据是在三个四向停车道交叉路口捕获的,行人与车辆交错。
24. Argoverse
适用任务:tracking
时间:2019年
简介:Argoverse是第一个大规模的自动驾驶数据收集,它包含带有几何和语义数据的HD地图,例如车道中心线、车道方向和可驾驶区域。我们提供的所有细节使得开发更精确的感知算法成为可能,这反过来将使自动驾驶车辆能够安全地在复杂的城市街道上行驶。
25. Matterport3D
适用任务:reconstruction
时间:2017年
简介:Matterport的数据获取,使用了三脚架固定的相机设备,有3个彩色相机和3个深度相机,分布在上中下。对于每个全景,它需要沿着垂直方向旋转到6个不同的方向(也就是60度拍一下),每个彩色相机都要拍高动态范围图像。当相机旋转时,3个深度相机持续拍摄数据,整合生成1280×1024的深度图像,与每幅彩色照片进行配准。每个全景图像是由18个彩色图片组成,中心点正好是拍摄人员的高度。
数据集包含90个建筑物的194,400张RGB-D图像,10,800个全景图像,24,727,520个纹理三角面。
26. SynthCity
适用任务:segmentation
时间:2019年
简介:SynthCity是由367.9M个点合成的全彩移动激光扫描点云。点云中的每个点都被标记了类别标签(9类中的某一类)。
27. Lyft Level 5
适用任务:detection, segmentation, prediction, depth estimation
时间:2019年
简介:数据集当中包含超过5.5万个由人类标记的 3D 注释帧,来自 7 个摄像头与多达 3 个激光雷达的数据,一份可直接使用的地表地图,一份底层高清空间语义地图(包括车道与人行横道布局等)。该数据集是目前已经公布的,规模较为可观的无人驾驶数据集。
28. ApolloScape Dataset
时间:2018年
简介:百度今年发布的自动驾驶数据,数据的规模为超过140K images,每一张分辨率都是3384 × 2710, 并且有3D point cloud的信息和camera pose information。场景十分复杂,数据采集地点在北京(还看到了后厂村路和上地西路),具有拥堵的路况数据。数据具有3D attribute, 每张图有相机的pose信息和准确的3D静态点云。
29. Semantic KITTI
适用任务:segmentation
时间:2019年
简介:Semantic KITTI 是自动驾驶领域的权威数据集,它基于 KITTI 数据集,对 KITTI Vision Odometry Benchmark 中的所有序列都进行了标注,同时还为 LiDAR 360 度范围内采集到的所有目标,进行了密集的逐点注释。
该数据集包含 28 个标注类别,分为静态对象和动态对象,既包括行人、车辆等交通参与者,也包括停车场、人行道等地面设施。研发团队还将数据采集过程中用到的点云标记工具进行了开源。
30. Waymo Open Dataset
适用任务:detection, tracking, prediction
时间:2019年
简介:数据集包含3000个驾驶片段,每一片段包含20秒的连续驾驶画面。连续镜头内容可以使得研究人员开发模型来跟踪和预测其他道路使用者的行为。数据采集的范围涵盖凤凰城、柯克兰、山景城、旧金山等地区,以及各种驾驶条件下的数据,包括白天、黑夜、黎明、黄昏、雨天和晴天。每个分段涵盖5个高分辨率Waymo激光雷达和五个前置和侧面摄像头的数据。车辆、行人、自行车、标识牌等图像都经过精心标记,一共打了2500万个3D标签和2200万个2D标签。
31. A*3D Dataset
适用任务:detection
时间:2020年
简介:该数据集由RGB图像和LiDAR数据组成,具有显著的场景、时间和天气差异。该数据集由高密度图像(比首创的Kitti数据集多10倍)、严重遮挡、大量的夜间帧(约为nuScenes数据集的3倍)组成,解决了现有数据集中的空白,从而将自动驾驶研究中的任务边界推到更具挑战性的高度多样化的环境中。数据集包含39K帧、7个类和230K 3D对象注释。
32. Oxford Robotcar
适用任务:classification, detection, recognition
时间:2015年
简介:这一数据集包含牛津大学从 2014 年 4 月到 2015 年 12 月间通过牛津 RobotCar 平台(使用日产 LEAF 自动驾驶汽车)平均每周在牛津市中心运行 10 公里路线产生的数据。总计约 1010 公里驾驶数据,同时包含超过 2000 万张由六台车载相机拍摄的图片,以及激光测距,GPS 和惯性导航收集的地貌资料,容量 23.15TB。
在数据收集期间,车辆完全处于人工驾驶状态。这些数据中存在所有天气情况,包括雨雪,夜间,直射阳光。在数据集收集的一年时间里,车辆运行在同一区域,但这一地区的道路和建筑情况出现了很大改变。通过一年时间频繁地通行在同一路线中,研究人员可以探究在现实世界动态城市环境中自动驾驶车辆如何进行定位和地图映射。
33. PandaSet
适用任务:detection, segmentation
时间:2020年
简介:禾赛科技与Scale AI联合发布了自动驾驶开源数据集PandaSet,该数据集采用2款激光雷达和6个摄像头进行数据采集,包含超过16000帧激光雷达点云和超过48000张照片,共100多个场景。除了激光雷达点云和照片外,数据集还包含GPS(全球定位系统)/IMU(惯性传感器)、标定参数、标注、SDK(软件开发工具包)等信息。
尤其值得关注的是,PandaSet数据集对100多个场景的每个场景都进行了目标检测,共检测28类物体;大多数场景还进行了语义分割,共37种语义标签。目标检测采用传统的长方体标注,因此数据集还通过点云分割工具精确标注了每个点的语义标签。如此细腻的标注,也为深度学习算法模型提供了绝佳的数据资料。
34. Campus3D
适用任务:reconstruction, recognition, segmentation
时间:2020年
简介:该数据集来自无人驾驶飞行器摄影,涵盖新加坡国立大学校园1.58平方公里的面积。它由大约10亿点组成。每个点都被层次化和基于实例的标签注释。有2,530个基于情态的实例,24个语义类和6个基于模式的区域,可用于对象检测、语义分割、实例分割、快速场景理解、对象检测、三维模型重建等。