【系列文章】面向自动驾驶的三维点云处理与学习(2)

2021-03-04 10:53:30 浏览数 (1)

标题:3D Point Cloud Processing and Learning for Autonomous Driving

作者:Siheng Chen, Baoan Liu, Chen Feng, Carlos Vallespi-Gonzalez, Carl Wellington

编译:点云PCL

来源:arXiv 2020

本文仅做学术分享,由于恶意举报,暂不能申请原创,本人翻译文章如有侵权,请联系删除。内容如有错误欢迎评论留言,未经允许请勿转载!

写在前面

这篇文章在可以说是很完整的介绍了点云在自动驾驶中各个模块的角色,从宏观的分模块的介绍了点云在自动驾驶中的作用与应用,看完整篇文章,将不仅对自动驾驶技术有了更为全面的理解,并理解点云在自动驾驶中的重要性,这里介绍的高精地图的创建以及定位感知等模块介绍是自动驾驶领域的核心技术,比如在介绍的定位模块的两种定位方式的时候就介绍了不同场景下的使用语义的几何信息以及点云强度信息进行定位的方法时,完全对得上apollo自动驾驶方案,让读者收获颇多。这里博主决定将其完整的翻译过来分享给更多感兴趣的朋友。

在翻译与理解的过程中可能存在笔误或者理解不到位,欢迎大家留言交流。由于文章篇幅较长,文章将被分成多篇文章更新发布。其完整英文版pdf可在免费知识星球中获取。

目录

1、介绍

1-A 自动驾驶的意义、历史与现状

1-B 一个完整的自动驾驶系统模块

1-C 三维点云处理与学习

1-D 大纲

2、三维点云处理与学习的关键要素

2-A 点云特性

2-B 矩阵表示法

2-C 代表性的工具

3、高精地图的创建以及三维点云的处理

3-A 高精地图创建模块概述

3-B 三维点云的拼接

3-C 点云语义特征的提取

3-D 地图创建面对的挑战

4、基于点云定位的处理

4-A 定位模块的概述

4-B 基于地图的定位

4-C 点云定位存在的挑战

5、点云感知

5-A 感知模块概述

5-B 3D点云物体的检测

5-C 点云感知存在的挑战

6、总结与扩展问题

6-A 学术界与工业领域的关系

6-B 定性结果

2,三维点云处理与学习的关键要素

在本节中,将介绍三维点云处理和学习的基本工具。从三维点云的关键特性开始。评估一些表示三维点云的方法。最后,回顾了一系列处理三维点云的流行工具。这些工具在学术界受到了极大的关注。即使其中一些可能不会直接应用于自动驾驶系统,但仍然值得一提,因为它们可以激发新的技术,这些技术可能对自动驾驶有用。

2-A

点云特性

如第1-C节所述,考虑了自动驾驶中两种典型的三维点云:实时激光雷达点云和点云高精地图。

实时激光雷达点云。对于实时激光雷达点云中的每个三维点可以跟踪其相关的激光束和捕获的时间戳。一个实时激光雷达点云可以自然地组织在一个二维图像上,其x轴是时间戳,y轴是激光ID。因此,我们将每个单独的实时激光雷达点云视为一个有组织的三维点云。例如,Velodyne HDL-64E有64个独立的激光器,每一个激光器每秒发射数千次以捕捉360度的视野。因此,我们获得了一组与64个仰角和数千个方位角相关联的三维点。每个采集的三维点都与距离测量、强度值和高精度GPS时间戳相关联。注意,对于全局快门图像,像素值由电荷耦合器件(CCD)同时收集;然而,对于实时LiDAR扫描,3D点以各种时间戳收集。对于同一个激光束,连续发出后会收集到三维点云信息;对于不同的激光器,发射激光束也不同步;因此,收集到的三维点不会在二维规则栅格上完全对齐。由于64个激光器的排列遵循规则的角间距,因此实时激光雷达的点密度会在整个范围内发生变化;也就是说,从附近物体收集的三维点比从远处物体收集的要多得多。此外,实时激光雷达点云会受到遮挡的影响;也就是说,只能从面向激光雷达的物体表面获取三维点云。总之,实时激光雷达点云的一些关键特性包括:

●伪3D点。实时激光雷达扫描只反映一个特定的视点,因此我们认为它的维数是伪三维的;

●遮挡。每个单独的实时激光雷达只能从一个视点记录三维环境。前面的物体会挡住后面的其他物体;

●稀疏点云。与二维图像相比,实时激光雷达通常是对物体表面的稀疏表达,特别是对较远的物体。它不能提供物体对象的详细三维形状信息。

点云高精地图。要创建一个点云地图,需要拼接实时激光雷达从多个自动驾驶车辆获取的跨时间扫描得到的点云。由于没有直接的方法来组织点云地图,我们将其视为无组织的三维点云。例如,对于一张200×200平方米的高精地图,需要在该区域周围获取激光雷达点云数据,进行5-10次试验,从而获得超过1000万个3D点。由于激光雷达可以从不同的视图中收集点云,拼接后的高精地图会变得更密集,并显示详细的三维形状信息。总而言之,点云地图的一些关键属性包括:

●全3D点。点云地图拼接了来自不同视图的多个激光雷达点云,类似于通过扫描转台上的物体收集的3D数据。点云地图捕捉更多物体表面的信息,提供更密集和更详细的三维表示;

●不规则。点云地图中的三维点不规则地散布在三维空间中。它们来自多个激光雷达扫描,并且没有了激光ID关联,导致无组织的三维点云;

●无遮挡。点云地图是从多个视点收集的三维点的集合。它以较少的遮挡描绘静态的三维场景;

●稠密点云。点云地图提供密集点云,其中包含详细的三维形状信息,例如高分辨率形状和曲面法线;

●语义点云。作为HD地图的另一层,与交通规则相关的语义特征地图包含了三维场景的语义标签,包括路面、建筑物和树木。由于交通规则相关的语义特征图和点云图在三维空间中对齐,可以跟踪每个三维点云的语义信息。例如,点云地图中标记为树的三维点云将有助于改善感知,因为树叶上的激光雷达点通常很嘈杂且难以识别

2-B

矩阵表示法

表征(Representations)一直是大多数信号处理和机器学习技术的核心。良好的表征为揭示数据内隐藏的模式和结构奠定基础,并有利于后续任务。三维点云的一般表示是通过一个集合来实现的,该集合忽略了三维点的任何顺序。设S= (pi; ai) 是一组n个三维点,其pi=[Xi;Yi;Zi] ∈R3,表示第i点的三维坐标,ai表示第i点的其他属性。实时激光雷达扫描点通常包括强度∈R,点云地图通常包括表面法线ni∈R3;因此,ai=[ri;ni]∈R4。为了有效地存储和科学计算,矩阵(或张量)表示是非常有趣的。设f是从一组3D点S到具有待定形状的矩阵(或张量)X的映射。因此,三维点云的矩阵表示为X=f(S)接下来我们将讨论实现映射f(⋅)的几种典型方法。

原始点云。三维点云最直接的矩阵表示法是将集合中的每个三维点列为矩阵中的一行。

基于原始点云的表示法的优点是:

1)简单且通用;

2)保留了原始三维点集中的所有信息;但缺点是它不利于探索三维点的任何几何特性。这种表示方法通常用于自动驾驶系统的地图和定位模块中,需要较高的精度。

三维点云体素化。为了适用二维图像处理和计算机视觉的成功,可以将三维空间离散成体素,并用一系列体素来表示三维点云。一种简单的离散化方法是将三维空间从三个维度中的每一个划分为等距的非重叠体素;

三维体素化点云表示法

分别沿X,Y,Z轴绘制一个范围为H,W,D的三维空间。每个体素的大小分别为h,w,d。第(i,j,k)个体素表示三维体素空间。体素的表达式如下:

基于三维体素化的表示法的优点是:

(i)生成的体素与自然的层次结构相关联,所有体素具有统一的空间大小;

(ii)可以使用现成的工具,如三维卷积来分析数据;

但是,缺点是:

(i)它没有考虑有序三维点云的特定属性;

(ii)通常导致一个非常稀疏的表示,其中大多数体素是空的;

(iii)涉及到分辨率和内存之间的权衡问题。该表示方法可用于自动驾驶感知模块,以及三维点云的存储。

深度图。如第2-A节所述,实时激光雷达扫描点云基本上是从具有一定角度视野的单个位置进行的一系列距离测量;如图。

激光雷达转为深度二维图的表示方法

我们可以将实时激光雷达中的三维点近似地组织成二维距离图像像。深度图像中的每个像素对应于三维空间中的一个点。像素值是从激光雷达到截锥体内最近的三维点的范围。具体地说,我们用方位角α和俯仰角θ的分辨率沿方位角α∈[0;2π)和俯仰角θ∈(−π/2;π/2]划分三维空间。第(i,j)个像素对应于截锥空间Vi,使用二维矩阵来表示三维点云。其(i,j)元素为

考虑到每个截锥空间中的最小距离值。当没有一个点落入截面空间时,我们将默认值设置为−1。请注意,根据激光雷达设置,基于深度图像的表示也可以使用非均匀的间距俯仰角。基于距离图像的表示法的优点在于:

(i)能够自然地模拟了激光雷达捕捉三维点的方式,在三维空间中反射二维表面;

(ii)大多数相关的截面空间都有一个或多个三维点,从而产生紧凑的距离视图图像;然而,缺点是很难对无组织的点云进行建模,例如HD地图中的点云地图,该表示可用于感知模块。

鸟瞰图。基于鸟瞰视图(BEV)的表示方法是一种通过忽略高度的方式来实现三维体素化的特例。它将3D体素投影到BEV图像;见图。

鸟瞰图的表示方法

分别沿X,Y轴绘制一个范围为H,W的三维空间。每个像素的大小分别为h,w。BEV图像中的第(i,j)个像素表示空间Vi;使用二维矩阵表示三维点云。设X(BEV)∈R ,其(i,j)元素为

矩阵X(BEV)记录了二维空间中的占有率。请注意,基于BEV的表示方法有一些变量。例如,MV3D[8]没有使用二进制值,而是在每个柱体空间中使用一些统计值来构造X(BEV)。

基于BEV的表示法的优点是:

(i)它易于应用基于2D视觉的技术;

(ii)它易于与来自HD地图的信息进行融合。例如,在高精地图中编码的可行驶区域和交叉口位置可以投影到相同的二维空间,并与激光雷达信息融合;

(iii)易于用于后续模块,如预测和运动规划,

(iv)无论距离如何,物体对象总是相同的大小(与基于深度图的表示法形成对比),这是一个很强的先验知识,使学习问题更容易;然而,这种体素二维的BEV表示法的缺点是:

(i)它涉及分辨率和内存之间的严重权衡,导致获取小对象详细信息的过度量化问题;

(ii)它不考虑有序三维点云的特定属性,并且无法解释遮挡现象;

(iii)它导致稀疏性问题,因为大多数像素是空的。这种表示方法可用于自动驾驶中的感知模块。

2-C

代表性的工具

三维点云在机器人学、计算机图形学、计算机视觉和信号处理等领域都得到了广泛的研究。这里将介绍一些有代表性的工具来处理和学习三维点云。由于深度神经网络方法在自动驾驶中的实际应用,我们主要强调基于深度神经网络的方法。

非深度学习方法。在深度学习出现之前,已经有很多传统的方法来处理各种任务的三维点云。然而,与深度神经网络不同的是,这些传统的方法很难用单一的方法框架来描述。这是因为传统的工具是专门为满足每项任务的需要而设计的,针对实际点云特性而开发。例如,在三维点云分割和三维形状检测中,传统技术是基于简单几何启发式的区域增长,或基于图形的优化,或鲁棒估计方法,如RANSAC[9]。三维关键点匹配作为另一项重要任务,与三维点云配准和三维点云识别密切相关。为了解决这一问题,许多基于统计的方法都是以传统方式开发的,目的是描述三维关键点或物体周围的几何结构;参见[10]中更全面的讨论。

卷积神经网络。使用卷积神经网络的动机是利用现成的深度学习工具来处理三维点云。卷积神经网络(CNNs)作为多层感知器的正则化形式,采用了一系列的卷积层,常用于图像和视频的分析。卷积层对输入数据操作一组可学习的滤波器,以产生表示滤波器的激活映射的输出。卷积层的优点是权值共享,即对二维图像中的任意位置应用相同的滤波系数(权值),这不仅节省了大量可学习的权值,而且保证了平移不变性,有助于避免对有限的训练数据进行过度拟合。CNNs作为一种通用的、成熟的学习框架,广泛应用于各种计算机视觉任务中,包括分类、检测、分割等,并在大多数任务中取得了最先进的性能。

基于CNN方法在图像和视频方面的成功,CNNs也被应用于三维点云数据。已经使用了多种表示,包括基于三维体素化的表示、基于深度图的表示和基于BEV的表示法。使用CNN处理3D点云的一个好处是卷积算法能够较好的组织局部空间关系。在PointNet中,每个3D点云被单独处理;而在CNN中,相邻的体素或像素被联合考虑,提供了更丰富的上下文信息。CNN的基本算子通常适用于基于三维体素化的表示的三维卷积和用于基于深度图的表示法和基于BEV的表示法的二维卷积。

即便点云的离散化特性,许多为二维图像开发的技术和体系结构可以很容易地扩展到处理三维点云。尽管离散化会导致不可避免的信息丢失,但CNNs通常具有可靠的性能,在许多任务中得到了广泛的应用。如前所述,离散化三维点云的一个关键问题是生成的三维体积或二维图像是稀疏的。处理空体素会浪费大量的计算。总之,CNN处理离散化的三维点云。这种方法不可避免地修改了精确的三维位置信息,但由于空间关系的先验性和CNNs的成熟性,仍然提供了很好的经验性能。因此在工业中得到广泛应用。

基于 PointNet的方法。使用基于 PointNet的方法的目的是通过深度神经网络直接处理原始的三维点云,而无需对点云进行任何离散化。PointNet[7]是实现这一目标的开创性工作。原始的三维点云本质上是无序的集合,而PointNet的设计是为了尊重这一特性并产生相同的输出,而不管输入数据的顺序如何。PointNet的关键技术贡献是使用一组共享的逐点多层感知器(MLP),然后使用全局池来提取几何特征,同时确保原始3D数据的这种排列不变性。尽管该体系结构简单,但它已成为众多三维点云学习算法的标准模块,并在三维点云识别和分割方面取得了惊人的优异性能。PointNet是基于原始点云的表示法X(raw)。设H∈R N×D为局部特征矩阵,其中第i行Hi表示第i点的特征,H∈R D为全局特征向量。PointNet的一个基本计算表示

其中X(raw)是第i个3D点的特征,MLP(L)表示L层MLP,它将每个3D点映射到一个特征空间,maxpool(⋅)通过计算沿列的最大值(点云维度)执行下采样;见图3(a)。注意这里的每个三维点分别通过相同的MLP。

PointNet图示

直观地说,MLP提出了D个具有代表性的几何图形,并测试这些图形是否出现在每个3D点的周围。最大池记录了每个模式的所有3D点上最佳的响应值。从本质上讲,全局特征向量h总结了三维点云中D个代表性几何模式的匹配的值,可以用来识别三维点云。同时,由于每个3D点分别经过相同的mlp,并且max-pooling去除了点的维数,因此整个计算块是置换不变的,即3D点的排序不影响该块的输出。

三维点云深度学习的PointNet在某种程度上类似于数据分析的主成分分析(PCA),它简单、通用、有效。就像主成分分析一样,PointNet在3D点云中提取全局特征。综上所述,基于PointNet的方法在基于原始点的表示中处理三维点云,并保证其排列不变性。该方法的有效性在不同的深度学习的延伸领域和学习任务中得到了验证。

基于图论的方法。使用基于图论的方法的动机是利用三维点之间的空间关系来加速深度神经网络的端到端学习。CNNs的一个优点是卷积算子考虑局部空间关系;然而,这些关系是相邻体素(或相邻像素)之间的关系,而不是原始3D点之间的关系。为了捕捉三维点之间的局部关系,可以引入一种图结构,其中每个节点是一个三维点,每个边反映了每对三维点之间的关系。这种图形结构是原始对象表面的离散程度的表示。N个节点图的矩阵表示是邻近矩阵A∈R,其(i,j)个元素反映了第i个3D点和第j个3D点之间的成对关系,见图。

基于图的方法示意图

基于图论的方法通常考虑基于点云的原始的表示法。然后,点云集X中的每个列向量都是上图A上支持的数据;称为图信号。构造图的方法有K-近邻图、an-图和可学习图。K-最近邻图是两个节点通过边连接的图,当它们的欧氏距离在从一个3D点到所有其它3D点的第K个最小欧氏距离中时。最近邻图是当两个节点的欧氏距离小于给定的阈值时,两个节点通过一条边相连的图。通过使用有效的数据结构,例如八叉树[11],可以有效地实现K-最近邻图和-图。可学习图是在端到端学习体系结构中邻接矩阵可训练的图结构。

总之,基于图论的方法用来构建图结构来捕捉三维点云的分布,并利用局部空间关系。这种方法在基于原始点的表示中处理三维点云,确保了置换不变性。这种方法还不太成熟:尽管利用一个图可以提高整体性能,但图的构造更像艺术而不是科学,需要额外的计算成本;此外,基于图的神经网络的深层结构仍需要更多的探索[16]。

参考文献

向上滑动阅览

[1] A. Taeihagh and H. Si Min Lim, “Governing autonomous vehicles: emerging responses for safety, liability, privacy, cybersecurity, and industry risks,” Transport Reviews, vol. 39, no. 1, pp. 103–128, Jan. 2019.

[2] National Research Council, “Technology development for army unmanned ground vehicles,” 2002.

[3] C. Badue, R. Guidolini, R. Vivacqua Carneiro, P. Azevedo, V. Brito Cardoso, A. Forechi, L. Ferreira Reis Jesus, R. Ferreira Berriel, T. Meireles Paixo, F. Mutz, T. Oliveira-Santos, and A. Ferreira De Souza, “Self-driving cars: A survey,” arXiv:1901.04407 [cs.RO], Jan. 2019. [4] M. Bansal, A. Krizhevsky, and A. S. Ogale, “ChauffeurNet: Learning to drive by imitating the best and synthesizing the worst,” CoRR, vol. abs/1812.03079, 2018.

[5] C. Urmson, J. Anhalt, D. Bagnell, C. R. Baker, R. Bittner, M. N. Clark, J. M. Dolan, D. Duggins, T. Galatali, C. Geyer, M. Gittleman, S. Harbaugh, M. Hebert, T. M. Howard, S. Kolski, A. Kelly, M. Likhachev, M. McNaughton, N. Miller, K. M. Peterson, B. Pilnick, R. Rajkumar, P. E. Rybski, B. Salesky, Y-W. Seo, S. Singh, J. M. Snider, A. Stentz, W. Whittaker, Z. Wolkowicki, J. Ziglar, H. Bae, T. Brown, D. Demitrish, B. Litkouhi, J. Nickolaou, V. Sadekar, W. Zhang, J. Struble, M. Taylor, M. Darms, and D. Ferguson, “Autonomous driving in urban environments: Boss and the urban challenge,” in The DARPA Urban Challenge: Autonomous Vehicles in City Traffic, George Air Force Base, Victorville, California, USA, 2009, pp. 1–59.

[6] G. P. Meyer, A. Laddha, E. Kee, C. Vallespi-Gonzalez, and C. K. Wellington, “Lasernet: An efficient probabilistic 3d object detector for autonomous driving,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2019.

[7] C. Ruizhongtai Qi, H. Su, K. Mo, and L. J. Guibas, “Pointnet: Deep learning on point sets for 3d classification and segmentation,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2017, pp. 77–85.

[8] X. Chen, H. Ma, J. Wan, B. Li, and T. Xia, “Multi-view 3d object detection network for autonomous driving,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2017, pp. 6526–6534.

[9] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Communications of the ACM, vol. 24, no. 6, pp. 381–395, 1981.

[10] X-F. Hana, J. S. Jin, J. Xie, M-J. Wang, and W. Jiang, “A comprehensive review of 3d point cloud descriptors,” arXiv preprint arXiv:1802.02297, 2018.

[11] J. Peng and C.-C. Jay Kuo, “Geometry-guided progressive lossless 3D mesh coding with octree (OT) decomposition,” ACM Trans. Graph. Proceedings of ACM SIGGRAPH, vol. 24, no. 3, pp. 609–616, Jul. 2005.

[12] A. Ortega, P. Frossard, J. Kovacevic, J. M. F. Moura, and P. Vandergheynst, “Graph signal processing: Overview, challenges, and applications,” Proceedings of the IEEE, vol. 106, no. 5, pp. 808–828, 2018.

[13] S. Chen, D. Tian, C. Feng, A. Vetro, and J. Kovacevi ˇ c, “Fast resampling ´ of three-dimensional point clouds via graphs,” IEEE Trans. Signal Processing, vol. 66, no. 3, pp. 666–681, 2018.

[14] Y. Wang, Y. Sun, Z. Liu, S. E. Sarma, M. M. Bronstein, and J. M. Solomon, “Dynamic graph CNN for learning on point clouds,” ACM Transactions on Graphics (TOG), vol. 38, no. 5, November 2019.

[15] S. Chen, S. Niu, T. Lan, and B. Liu, “Large-scale 3d point cloud representations via graph inception networks with applications to autonomous driving,” in Proc. IEEE Int. Conf. Image Process., Taipei, Taiwan, Sept. 2019.

[16] G. Li, M. Muller, A. K. Thabet, and B. Ghanem, “DeepGCNs: Can ¨ GCNs go as deep as CNNs?,” in ICCV, Seoul, South Korea, Oct. 2019.

[17] G. Grisetti, R. Kummerle, C. Stachniss, and W. Burgard, “A tutorial ¨ on graph-based SLAM,” IEEE Intell. Transport. Syst. Mag., vol. 2, no. 4, pp. 31–43, 2010.

[18] D. Droeschel and S. Behnke, “Efficient continuous-time SLAM for 3d lidar-based online mapping,” in 2018 IEEE International Conference on Robotics and Automation, ICRA, 2018, Brisbane, Australia, May 21-25, 2018, 2018, pp. 1–9.

[19] P. J. Besl and N. D. McKay, “A method for registration of 3D shapes,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 14, no. 2, pp. 239–256, 1992.

[20] A. Y. Hata and D. F. Wolf, “Road marking detection using LIDAR reflective intensity data and its application to vehicle localization,” in 17th International IEEE Conference on Intelligent Transportation Systems, ITSC 2014, Qingdao, China, October 8-11, 2014, 2014, pp. 584–589.

[21] S. Shi, X. Wang, and H. Li, “PointRCNN: 3d object proposal generation and detection from point cloud,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., Long Beach, CA, June 2019.

[22] B. Li, “3d fully convolutional network for vehicle detection in point cloud,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2017, Vancouver, BC, Canada, September 24-28, 2017, 2017, pp. 1513–1518.

[23] B. Yang, W. Luo, and R. Urtasun, “PIXOR: real-time 3d object detection from point clouds,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2018, pp. 7652–7660.

[24] J. Zhou, X. Lu, X. Tan, Z. Shao, S. Ding, and L. Ma, “Fvnet: 3d front-view proposal generation for real-time object detection from point clouds,” CoRR, vol. abs/1903.10750, 2019.

[25] B. Li, T. Zhang, and T. Xia, “Vehicle detection from 3d lidar using fully convolutional network,” in Robotics: Science and Systems XII, University of Michigan, Ann Arbor, Michigan, USA, June 18 - June 22, 2016, 2016.

[26] Y. Zhou and O. Tuzel, “Voxelnet: End-to-end learning for point cloud based 3d object detection,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., Salt Lake City, UT, USA, June 2018, pp. 4490–4499.

[27] S. Shi, Z. Wang, X. Wang, and H. Li, “Part-a2 net: 3d part-aware and aggregation neural network for object detection from point cloud,” CoRR, vol. abs/1907.03670, 2019.

[28] Y. Yan, Y. Mao, and B. Li, “Second: Sparsely embedded convolutional detection,” Sensors, vol. 18, no. 10, 2019.

[29] A. H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “Pointpillars: Fast encoders for object detection from point clouds,” CoRR, vol. abs/1812.05784, 2018.

[30] T-Y. Lin, P. Dollar, R. B. Girshick, K. He, B. Hariharan, and S. J. ´ Belongie, “Feature pyramid networks for object detection,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2017, pp. 936–944.

[31] F. Yu, D. Wang, E. Shelhamer, and T. Darrell, “Deep layer aggregation,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2018, pp. 2403–2412.

[32] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. E. Reed, C-Y. Fu, and A. C. Berg, “SSD: single shot multibox detector,” in Computer Vision - ECCV 2016 - 14th European Conference, Amsterdam, The Netherlands, October 11-14, 2016, Proceedings, Part I, 2016, pp. 21–37.

[33] T-Y. Lin, P. Goyal, R. B. Girshick, K. He, and P. Dollar, “Focal ´ loss for dense object detection,” in IEEE International Conference on Computer Vision, ICCV 2017, Venice, Italy, October 22-29, 2017, 2017, pp. 2999–3007.

[34] J. Ku, M. Mozifian, J. Lee, A. Harakeh, and S. L. Waslander, “Joint 3d proposal generation and object detection from view aggregation,” in 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2018, Madrid, Spain, October 1-5, 2018, 2018, pp. 1–8.

[35] C. Ruizhongtai Qi, W. Liu, C. Wu, H. Su, and L. J. Guibas, “Frustum pointnets for 3d object detection from RGB-D data,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2018, pp. 918–927.

[36] D. Xu, D. Anguelov, and A. Jain, “PointFusion: Deep sensor fusion for 3d bounding box estimation,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn. 2018, pp. 244–253, IEEE Computer Society.

[37] M. Liang, B. Yang, S. Wang, and R. Urtasun, “Deep continuous fusion for multi-sensor 3d object detection,” in Computer Vision - ECCV 2018 - 15th European Conference, Munich, Germany, September 8-14, 2018, Proceedings, Part XVI, 2018, pp. 663–678.

[38] M. Liang, B. Yang, Y. Chen, R. Hu, and R. Urtasun, “Multi-task multi-sensor fusion for 3d object detection,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2019, pp. 7345–7353.

[39] G. P. Meyer, J. Charland, D. Hegde, A. Laddha, and C. VallespiGonzalez, “Sensor fusion for joint 3d object detection and semantic segmentation,” CoRR, vol. abs/1904.11466, 2019.

[40] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? the KITTI vision benchmark suite,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., Providence, RI, June 2012, pp. 3354– 3361.

[41] K-L. Low, “Linear least-squares optimization for point-toplane icp surface registration,” Tech. Rep., University of North Carolina at Chapel Hill, 2004.

[42] J. Yang, H. Li, D. Campbell, and Y. Jia, “Go-icp: A globally optimal solution to 3d ICP point-set registration,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 38, no. 11, pp. 2241–2254, 2016.

[43] A. Geiger, P. Lenz, C. Stiller, and R. Urtasun, “Vision meets robotics: The kitti dataset,” International Journal of Robotics Research (IJRR), 2013.

[44] Z. Wu, S. Song, A. Khosla, F. Yu, L. Zhang, X. Tang, and J. Xiao, “3d shapenets: A deep representation for volumetric shapes,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2015, pp. 1912–1920.

[45] F. Pomerleau, F. Colas, and R. Siegwart, “A review of point cloud registration algorithms for mobile robotics,” Foundations and Trends in Robotics, vol. 4, no. 1, pp. 1–104, 2015.

[46] H. Fathi, F. Dai, and M. I. A. Lourakis, “Automated as-built 3d reconstruction of civil infrastructure using computer vision: Achievements, opportunities, and challenges,” Advanced Engineering Informatics, vol. 29, no. 2, pp. 149–161, 2015.

[47] B. Reitinger, C. Zach, and D. Schmalstieg, “Augmented reality scouting for interactive 3d reconstruction,” in IEEE Virtual Reality Conference, VR 2007, 10-14 March 2007, Charlotte, NC, USA, Proceedings, 2007, pp. 219–222.

未完待续...

0 人点赞