【系列文章】面向自动驾驶的三维点云处理与学习(5)

2021-03-08 15:53:44 浏览数 (1)

写在前面

这篇文章在可以说是很完整的介绍了点云在自动驾驶中各个模块的角色,从宏观的分模块的介绍了点云在自动驾驶中的作用与应用,看完整篇文章,将不仅对自动驾驶技术有了更为全面的理解,并理解点云在自动驾驶中的重要性,这里介绍的高精地图的创建以及定位感知等模块介绍是自动驾驶领域的核心技术,比如在介绍的定位模块的两种定位方式的时候就介绍了不同场景下的使用语义的几何信息以及点云强度信息进行定位的方法时,完全对得上apollo自动驾驶方案,让读者收获颇多。这里博主决定将其完整的翻译过来分享给更多感兴趣的朋友。

【系列文章】面向自动驾驶的三维点云处理与学习(1)

【系列文章】面向自动驾驶的三维点云处理与学习(2)

【系列文章】面向自动驾驶的三维点云处理与学习(3)

【系列文章】面向自动驾驶的三维点云处理与学习(4)

在翻译与理解的过程中可能存在笔误或者理解不到位,欢迎大家留言交流。由于文章篇幅较长,文章将被分成多篇文章更新发布。其完整英文版pdf可在免费知识星球中获取。

目录

1、介绍

1-A 自动驾驶的意义、历史与现状

1-B 一个完整的自动驾驶系统模块

1-C 三维点云处理与学习

1-D 大纲

2、三维点云处理与学习的关键要素

2-A 点云特性

2-B 矩阵表示法

2-C 代表性的工具

3、高精地图的创建以及三维点云的处理

3-A 高精地图创建模块概述

3-B 三维点云的拼接

3-C 点云语义特征的提取

3-D 地图创建面对的挑战

4、基于点云定位的处理

4-A 定位模块的概述

4-B 基于地图的定位

4-C 点云定位存在的挑战

5、点云感知

5-A 感知模块概述

5-B 3D点云物体的检测

5-C 点云感知存在的挑战

6、总结与扩展问题

6-A 学术界与工业领域的关系

6-B 定性结果

5,点云感知

5-A

感知模块概述

如第1-B节所述,感知模块是自动驾驶车辆的视觉系统,该模块需要能够感知周围的3D环境。感知模块的输入通常包括来自摄像机、激光雷达、雷达和超声波的等测量值,以及来自定位模块的运动姿态输出和来自高精地图的先验信息。感知模块的输出通常是交通灯状态和物体的三维边界框与轨道。

如第1-B节所述,使用多种传感模式来确保感知模块的鲁棒性。根据融合机制的不同,感知模块可分为晚期融合和前期融合。后期融合是指在语义层面的融合模式,通常发生在最后一步;前期融合是指在特征层面融合模式,通常发生在早期或中间步骤。下图显示了基于后期融合的感知模块的标准框架。

后期融合模块的示意图

为了能够获得准确的物体三维运动轨迹,基于后期融合的感知模块使用一个单独的流程来处理每个传感器的输入,每个流程包括了检测模块和数据关联和跟踪模块。检测模块作用是寻找出运动物的边界框,数据关联和跟踪模块跨帧的跟踪边界框,为每个单独的对象指定唯一的标识。融合模块将多条流程的边界框信息统一起来,输出最终的带轨迹的三维边界框。相比之下,下图显示了一个基于早期融合的感知模块。

前期融合模块的示意图

它使用一个早期的融合检测器来获取所有的传感模式的输出,并生成所有的三维边界框。然后,它使用数据关联和跟踪模块跨帧的关联三维边界框,并为每个对象指定一个标识。为了估计交通灯状态,交通灯状态估计器根据高精地图中的位置先验信息从图像中提取交通灯区域,然后利用机器学习技术对图像进行分析和识别。基于晚期的融合方法更加成熟,而基于融合的前期方法被认为具有更大的潜力[8]。业界几十年来一直采用基于后期融合的方法,因为这种方法将任务模块化,使每个传感器处理流程易于实现、调试和管理。早期基于融合的方法秉承了端到端学习的精神,能够在高维特征空间中实现多种传感模式的相互弥补;然而,这一研究方向仍然存在重大挑战,许多公司仍在使用基于后期融合的方法。

鲁棒感知模块通常包括车道检测、二维目标检测、三维目标检测、语义分割和目标跟踪等多个中间环节来实现最终目标。在这些模块中,三维目标检测是特别有趣和具有挑战性的,因为它需要处理实时激光雷达扫描数据,并可以直接生成场景中所有对象的三维边界框。最近,这项任务与深度学习的方法相结合,引起了广泛的关注[8]。

5-B

3D点云物体的检测

三维目标检测的任务是基于一个或多个传感器的测量值,用边界框的检测和定位三维空间中的目标,目标检测通常输出目标的三维边界框作为目标关联和跟踪的输入。基于传感器测量值的使用,可以将三维目标检测分为基于激光雷达的检测(见图(a))和基于融合的检测(见图(b))。

基于激光雷达的检测。基于激光雷达的检测器的目标是找到扫描数据中的所有对象,如车辆、自行车和行人等。二维目标检测和三维目标检测的主要区别在于输入的表示。实时激光雷达扫描数据可以用各种方式表示,从而导致后续模块中的相应的不同处理。例如,PointRCNN[21]采用基于原始点的表示,然后使用PointNet 进行多尺度采样和分组,学习逐点特征;3D FCN[22]采用基于三维体素化的表示,使用三维卷积学习逐体素特征;PIXOR[23]采用基于BEV的表示,然后使用2D卷积学习像素级特征;FVNet[24]、VeloFCN[25]和LaserNet[6]采用基于range view的表示,然后使用2D卷积学习像素级特征。其他一些方法考虑混合表示。VoxelNet[26]提出了一种体素特征编码(VFE)层,它结合了基于原始点的表示和基于三维体素化的表示的优点。VFE首先根据三维点所在的三维体素对点云进行分组,然后利用PointNet学习每个三维体素的逐点特征,最后对逐点特征进行聚合,得到每个三维体素的逐点特征。VFE的好处是将原始的三维点转换为基于三维体素化的表示,同时学习每个三维体素中的三维几何特征。之后,体素网格利用三维卷积进一步提取体素特征。

最近的检测系统PointPillars[29]没有将原始3D点转换为基于3D体素化的表示,而是将原始3D点转换为基于BEV的表示,其中BEV图像中的每个像素对应于3D空间中的一个圆柱。然后,PointPillars使用PointNet学习逐个圆柱特征,并使用2D卷积从BEV图像中提取全局特征。与2D目标检测类似,3D目标检测通常有两种模式:单级检测和两级检测;见图

单级检测和两级检测的框架。单级段检测直接估计边界盒,而两级检测首先提出包含目标的可能区域,然后估计边界盒。

单级检测一些方法包括

VeloFCN[25]、3D FCN[22]、VoxelNet[26]、PIXOR[23]、SECOND[28]、PointPillars[29]和LaserNet[6]。

两级检测在两个阶段中实现检测函数;方法包括PointRCNN[21]、FVNet[24]和Part-A2-Net[27]。在方案生成阶段,PointRCNN以PointNet 为主干,提出了基于bin的区域定位方案。基于bin的定位首先找到与目标中心位置相关联的bin,然后对残差进行回归;基于原始点的表示提供了完整的点信息,但缺乏空间先验知识。

PointNet已经成为处理这个问题并在基于原始点的表示中提取特征的标准方法。基于三维体素化的表示方法和基于BEV的表示方法简单明了,但会产生大量的空体素和像素。具有稀疏卷积的特征金字塔网络可以帮助解决这个问题。基于深度图的表示更加紧凑,因为数据是在传感器的当前帧中转换的,这就可以高效的处理,并且它自然地对遮挡进行建模。但是在基于深度图的表示方法中,不同距离内的对象具有明显不同的尺度,通常需要更多的训练数据才能获得较高的性能。VFE引入了混合表示法,它利用了基于原始点的表示法和基于三维体素化的表示法。单级检测往往更快更简单,自然具有较高的召回率,而两级检测往往实现更高的精度[33],[23]。

MV3D遵循两级检测。将图像以及基于BEV和基于距离的深度图的实时激光雷达扫描数据表示作为输入。然后,MV3D使用深度融合网络来实现来自不同视图的中间层特征之间的融合。融合后的特征用于联合分类目标类别和估计三维边界框;

AVOD遵循两级检测。它融合了来自图像和基于BEV的实时激光雷达扫描数据表示的全分辨率特征裁剪;

F-PointNet遵循两级检测。从图像检测器中提取二维边界框,投影到三维空间,得到截头体区域。在每个可能的区域内,F-PointNet使用PointNet分割3D实例并估计3D边界框;

PointFusion遵循单级检测。它首先使用卷积神经网络和PointNet分别从图像和基于原始点的实时激光雷达扫描表示中提取特征。然后使用稠密的融合网络来组合这两个特征;即对于逐点特征与图像特征进行串联;

ContinuousConvolution遵循单级检测。并基于BEV表示。连续卷积提出了连续融合层,将图像特征融合到不同分辨率的BEV特征图上。对于BEV特征图中的每个像素, ContinuousConvolution找到其最近的LiDAR点,将该点投影到2D图像上并从相应的像素检索图像特征;

MMF遵循两级检测。其融合机制类似于连续卷积。此外,它引入了深度补全来促进交叉模态特征表示;

LaserNet 遵循单级检测。基于基于距离的深度图的表示,LaserNet 在相机图像和基于深度图的LiDAR图像之间建立了一个像素到像素的对应关系,使得该算法能够将从相机图像中提取的特征与来自LiDAR图像相应位置的特征进行融合。然后,它将从相机图像和激光雷达图像中提取的特征反馈给LaserNet[6]。

这些工作中的每一项都表明,添加图像数据可以提高检测性能,特别是在LiDAR数据稀疏的情况下;然而,这一好处并不显著,而且在系统原型或基本操作上也没有共识。这使得业界很难推翻以前基于融合的方法。总之,基于早期融合的检测系统的设计仍然是一个有待解决的问题。大多数设计都是基于图像和三维点云的中间特征的串联,使得网络能够找出如何融合它们。到目前为止,还没有专门的设计来处理多个传感器的不同步问题,这可能是通过从大规模的训练数据中学习其隐含的关联特征。

数据集。KITTI[40]是最常用的自动驾驶数据集,该数据集于2012年发布,此后多次更新。大多数三维目标检测算法都是在KITTI上进行验证的;然而,KITTI是一个相对较小的数据集,不能提供详细的地图信息。一些自主驾驶公司最近发布了他们的数据集,如nuScenes8、Argoverse9、Lyft Level 5 AV dataset和Waymo open dataset。

评估指标。为了评价检测性能,学术界标准的评价指标是精度召回(PR)曲线和平均精度(AP),但目前还没有一个标准的平台来评价各模型的运行速度。另一方面,业界考虑更详细的评估指标来检查检测性能。例如,从业者会检查不同范围、形状、大小、外观和遮挡水平下的性能,以获得更多信息。他们还将检查对后续模块的影响,如目标跟踪、轨迹预测和运动规划,以获得系统级度量标准。

5-C

点云感知存在的挑战

随着深度学习的发展,感知模块取得了巨大的进步。一些实践者不再将其视为自动驾驶的技术瓶颈;然而,感知模块还远远不够完善。下面是感知模块中的一系列挑战。

成本高。自动驾驶车辆通常配备有一个或多个激光雷达和计算设备,如GPU和其他专用处理器,这些设备非常昂贵。高昂的成本使得维持一支规模庞大的自动驾驶车辆车队变得非常困难。利用实时激光雷达扫描的信息进行低成本计算,在效率和内存之间进行折衷,仍然是一个悬而未决的问题。自动驾驶车辆应该对周围环境做出实时反应。当一个高精度的感知模块引入了太多的延迟时,追求它是毫无意义的;然而,研究人员往往更关注算法的有效性而不是效率;

训练数据泛化。现代感知模块在很大程度上依赖于机器学习技术,通常需要尽可能多的训练数据,然而处理大规模的训练数据需要大量的时间和计算资源。如何从整个数据集中有效地选择一个具有代表性的训练数据子集,这将大大加快产品的开发;

Long-tail问题。在无数的交通条件下,大规模的训练数据无法涵盖所有的可能性。极端情况的发现和处理一直是一个尚未解决的问题,尤其是对训练数据中从未出现过的目标的检测。

研究转化问题。在学术界,研究者倾向于设计基于干净和小规模数据集的算法。结果表明,许多有效的算法适用于干净的小规模数据集,但对有噪声的大规模数据集无效。同时,一些在大规模数据集上运行良好的算法在小规模数据集上运行不好[6]。当研究结果应用于实际问题时,这些不一致性会降低其有用性。工业界应考虑提供具有代表性的数据集,甚至可能提供一个计算评估平台,允许人们在整个工业规模上比较各种方法;以及

评估指标。场景中的对象与自动驾驶车辆具有不同级别的交互。对某些对象的错误估计会导致比其他对象更大的严重后果;然而,PR曲线和AP给所有样本赋予了统一的权重。此外,PR曲线和AP不能清楚地反映拐角情况,因为拐角情况的样本量很小;因此,改进PR曲线和AP并不一定会导致自动驾驶车辆的更好性能。

参考文献

向上滑动阅览

[1] A. Taeihagh and H. Si Min Lim, “Governing autonomous vehicles: emerging responses for safety, liability, privacy, cybersecurity, and industry risks,” Transport Reviews, vol. 39, no. 1, pp. 103–128, Jan. 2019.

[2] National Research Council, “Technology development for army unmanned ground vehicles,” 2002.

[3] C. Badue, R. Guidolini, R. Vivacqua Carneiro, P. Azevedo, V. Brito Cardoso, A. Forechi, L. Ferreira Reis Jesus, R. Ferreira Berriel, T. Meireles Paixo, F. Mutz, T. Oliveira-Santos, and A. Ferreira De Souza, “Self-driving cars: A survey,” arXiv:1901.04407 [cs.RO], Jan. 2019. [4] M. Bansal, A. Krizhevsky, and A. S. Ogale, “ChauffeurNet: Learning to drive by imitating the best and synthesizing the worst,” CoRR, vol. abs/1812.03079, 2018.

[5] C. Urmson, J. Anhalt, D. Bagnell, C. R. Baker, R. Bittner, M. N. Clark, J. M. Dolan, D. Duggins, T. Galatali, C. Geyer, M. Gittleman, S. Harbaugh, M. Hebert, T. M. Howard, S. Kolski, A. Kelly, M. Likhachev, M. McNaughton, N. Miller, K. M. Peterson, B. Pilnick, R. Rajkumar, P. E. Rybski, B. Salesky, Y-W. Seo, S. Singh, J. M. Snider, A. Stentz, W. Whittaker, Z. Wolkowicki, J. Ziglar, H. Bae, T. Brown, D. Demitrish, B. Litkouhi, J. Nickolaou, V. Sadekar, W. Zhang, J. Struble, M. Taylor, M. Darms, and D. Ferguson, “Autonomous driving in urban environments: Boss and the urban challenge,” in The DARPA Urban Challenge: Autonomous Vehicles in City Traffic, George Air Force Base, Victorville, California, USA, 2009, pp. 1–59.

[6] G. P. Meyer, A. Laddha, E. Kee, C. Vallespi-Gonzalez, and C. K. Wellington, “Lasernet: An efficient probabilistic 3d object detector for autonomous driving,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2019.

[7] C. Ruizhongtai Qi, H. Su, K. Mo, and L. J. Guibas, “Pointnet: Deep learning on point sets for 3d classification and segmentation,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2017, pp. 77–85.

[8] X. Chen, H. Ma, J. Wan, B. Li, and T. Xia, “Multi-view 3d object detection network for autonomous driving,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2017, pp. 6526–6534.

[9] M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Communications of the ACM, vol. 24, no. 6, pp. 381–395, 1981.

[10] X-F. Hana, J. S. Jin, J. Xie, M-J. Wang, and W. Jiang, “A comprehensive review of 3d point cloud descriptors,” arXiv preprint arXiv:1802.02297, 2018.

[11] J. Peng and C.-C. Jay Kuo, “Geometry-guided progressive lossless 3D mesh coding with octree (OT) decomposition,” ACM Trans. Graph. Proceedings of ACM SIGGRAPH, vol. 24, no. 3, pp. 609–616, Jul. 2005.

[12] A. Ortega, P. Frossard, J. Kovacevic, J. M. F. Moura, and P. Vandergheynst, “Graph signal processing: Overview, challenges, and applications,” Proceedings of the IEEE, vol. 106, no. 5, pp. 808–828, 2018.

[13] S. Chen, D. Tian, C. Feng, A. Vetro, and J. Kovacevi ˇ c, “Fast resampling ´ of three-dimensional point clouds via graphs,” IEEE Trans. Signal Processing, vol. 66, no. 3, pp. 666–681, 2018.

[14] Y. Wang, Y. Sun, Z. Liu, S. E. Sarma, M. M. Bronstein, and J. M. Solomon, “Dynamic graph CNN for learning on point clouds,” ACM Transactions on Graphics (TOG), vol. 38, no. 5, November 2019.

[15] S. Chen, S. Niu, T. Lan, and B. Liu, “Large-scale 3d point cloud representations via graph inception networks with applications to autonomous driving,” in Proc. IEEE Int. Conf. Image Process., Taipei, Taiwan, Sept. 2019.

[16] G. Li, M. Muller, A. K. Thabet, and B. Ghanem, “DeepGCNs: Can ¨ GCNs go as deep as CNNs?,” in ICCV, Seoul, South Korea, Oct. 2019.

[17] G. Grisetti, R. Kummerle, C. Stachniss, and W. Burgard, “A tutorial ¨ on graph-based SLAM,” IEEE Intell. Transport. Syst. Mag., vol. 2, no. 4, pp. 31–43, 2010.

[18] D. Droeschel and S. Behnke, “Efficient continuous-time SLAM for 3d lidar-based online mapping,” in 2018 IEEE International Conference on Robotics and Automation, ICRA, 2018, Brisbane, Australia, May 21-25, 2018, 2018, pp. 1–9.

[19] P. J. Besl and N. D. McKay, “A method for registration of 3D shapes,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 14, no. 2, pp. 239–256, 1992.

[20] A. Y. Hata and D. F. Wolf, “Road marking detection using LIDAR reflective intensity data and its application to vehicle localization,” in 17th International IEEE Conference on Intelligent Transportation Systems, ITSC 2014, Qingdao, China, October 8-11, 2014, 2014, pp. 584–589.

[21] S. Shi, X. Wang, and H. Li, “PointRCNN: 3d object proposal generation and detection from point cloud,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., Long Beach, CA, June 2019.

[22] B. Li, “3d fully convolutional network for vehicle detection in point cloud,” in 2017 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2017, Vancouver, BC, Canada, September 24-28, 2017, 2017, pp. 1513–1518.

[23] B. Yang, W. Luo, and R. Urtasun, “PIXOR: real-time 3d object detection from point clouds,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2018, pp. 7652–7660.

[24] J. Zhou, X. Lu, X. Tan, Z. Shao, S. Ding, and L. Ma, “Fvnet: 3d front-view proposal generation for real-time object detection from point clouds,” CoRR, vol. abs/1903.10750, 2019.

[25] B. Li, T. Zhang, and T. Xia, “Vehicle detection from 3d lidar using fully convolutional network,” in Robotics: Science and Systems XII, University of Michigan, Ann Arbor, Michigan, USA, June 18 - June 22, 2016, 2016.

[26] Y. Zhou and O. Tuzel, “Voxelnet: End-to-end learning for point cloud based 3d object detection,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., Salt Lake City, UT, USA, June 2018, pp. 4490–4499.

[27] S. Shi, Z. Wang, X. Wang, and H. Li, “Part-a2 net: 3d part-aware and aggregation neural network for object detection from point cloud,” CoRR, vol. abs/1907.03670, 2019.

[28] Y. Yan, Y. Mao, and B. Li, “Second: Sparsely embedded convolutional detection,” Sensors, vol. 18, no. 10, 2019.

[29] A. H. Lang, S. Vora, H. Caesar, L. Zhou, J. Yang, and O. Beijbom, “Pointpillars: Fast encoders for object detection from point clouds,” CoRR, vol. abs/1812.05784, 2018.

[30] T-Y. Lin, P. Dollar, R. B. Girshick, K. He, B. Hariharan, and S. J. ´ Belongie, “Feature pyramid networks for object detection,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2017, pp. 936–944.

[31] F. Yu, D. Wang, E. Shelhamer, and T. Darrell, “Deep layer aggregation,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2018, pp. 2403–2412.

[32] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. E. Reed, C-Y. Fu, and A. C. Berg, “SSD: single shot multibox detector,” in Computer Vision - ECCV 2016 - 14th European Conference, Amsterdam, The Netherlands, October 11-14, 2016, Proceedings, Part I, 2016, pp. 21–37.

[33] T-Y. Lin, P. Goyal, R. B. Girshick, K. He, and P. Dollar, “Focal ´ loss for dense object detection,” in IEEE International Conference on Computer Vision, ICCV 2017, Venice, Italy, October 22-29, 2017, 2017, pp. 2999–3007.

[34] J. Ku, M. Mozifian, J. Lee, A. Harakeh, and S. L. Waslander, “Joint 3d proposal generation and object detection from view aggregation,” in 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems, IROS 2018, Madrid, Spain, October 1-5, 2018, 2018, pp. 1–8.

[35] C. Ruizhongtai Qi, W. Liu, C. Wu, H. Su, and L. J. Guibas, “Frustum pointnets for 3d object detection from RGB-D data,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2018, pp. 918–927.

[36] D. Xu, D. Anguelov, and A. Jain, “PointFusion: Deep sensor fusion for 3d bounding box estimation,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn. 2018, pp. 244–253, IEEE Computer Society.

[37] M. Liang, B. Yang, S. Wang, and R. Urtasun, “Deep continuous fusion for multi-sensor 3d object detection,” in Computer Vision - ECCV 2018 - 15th European Conference, Munich, Germany, September 8-14, 2018, Proceedings, Part XVI, 2018, pp. 663–678.

[38] M. Liang, B. Yang, Y. Chen, R. Hu, and R. Urtasun, “Multi-task multi-sensor fusion for 3d object detection,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2019, pp. 7345–7353.

[39] G. P. Meyer, J. Charland, D. Hegde, A. Laddha, and C. VallespiGonzalez, “Sensor fusion for joint 3d object detection and semantic segmentation,” CoRR, vol. abs/1904.11466, 2019.

[40] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? the KITTI vision benchmark suite,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., Providence, RI, June 2012, pp. 3354– 3361.

[41] K-L. Low, “Linear least-squares optimization for point-toplane icp surface registration,” Tech. Rep., University of North Carolina at Chapel Hill, 2004.

[42] J. Yang, H. Li, D. Campbell, and Y. Jia, “Go-icp: A globally optimal solution to 3d ICP point-set registration,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 38, no. 11, pp. 2241–2254, 2016.

[43] A. Geiger, P. Lenz, C. Stiller, and R. Urtasun, “Vision meets robotics: The kitti dataset,” International Journal of Robotics Research (IJRR), 2013.

[44] Z. Wu, S. Song, A. Khosla, F. Yu, L. Zhang, X. Tang, and J. Xiao, “3d shapenets: A deep representation for volumetric shapes,” in Proc. IEEE Int. Conf. Comput. Vis. Pattern Recogn., 2015, pp. 1912–1920.

[45] F. Pomerleau, F. Colas, and R. Siegwart, “A review of point cloud registration algorithms for mobile robotics,” Foundations and Trends in Robotics, vol. 4, no. 1, pp. 1–104, 2015.

[46] H. Fathi, F. Dai, and M. I. A. Lourakis, “Automated as-built 3d reconstruction of civil infrastructure using computer vision: Achievements, opportunities, and challenges,” Advanced Engineering Informatics, vol. 29, no. 2, pp. 149–161, 2015.

[47] B. Reitinger, C. Zach, and D. Schmalstieg, “Augmented reality scouting for interactive 3d reconstruction,” in IEEE Virtual Reality Conference, VR 2007, 10-14 March 2007, Charlotte, NC, USA, Proceedings, 2007, pp. 219–222.

未完待续...

0 人点赞