论文地址: https://songshiyu01.github.io/pdf/L3Net_W.Lu_Y.Zhou_S.Song_CVPR2019.pdf 代码:暂无 来源:百度自动驾驶 论文名称:L3-Net: Towards Learning based LiDAR Localization for Autonomous Driving 原文作者:Weixin Lu
文章提出了一种命名为L3-Net的点云定位网络结构。算法使用深度神经网络实时的激光点云数据和预处理的点云地图作为输入数据,通过提取单帧点云和点云地图中的关键点和描述子,并使用描述子进行匹配从而实现车辆当前位姿的估计。该框架可以达到厘米级的定位精度,该精度几乎媲美了手工标记的精度。L3-Net可以学习不同自动驾驶场景下本地描述符,用于特征匹配估计车辆位姿。使用3D卷积构建立体空间显著提高了定位精度。仿真结果表明,该神经网络能够有效地模拟车辆的动态特性,具有较好的时间平滑性和准确性。我们使用新采集的数据集验证了算法的有效性,该数据集在同一路段进行了多次重复采集,可以很好的满足算法的验证的需要。同时该采集的数据集和测试集之间存在一年的时间间隔,这样因为时间环境变化对算法的鲁棒性提出了很高的要求,但是我们的算法仍然表现了较低的定位误差。
论文提出的一种新的基于学习的激光雷达定位框架,可以用于自主驾驶应用,该算法可以得到很高的定位精度。
下面是论文具体框架结构以及实验结果:
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请联系。