论文地址:https://arxiv.org/pdf/2003.03026.pdf
代码:
来源: 百度自动驾驶技术部
论文名称:DA4AD: End-to-End Deep Attention-based Visual Localization for Autonomous Driving
原文作者:Yao Zhou
内容提要
本文提出了一种基于深度注意力感知特征的自动驾驶视觉定位框架,实现了厘米级的定位精度。传统的视觉定位方案依赖于人工特征或道路上的人造物体。存在严重的外观或光线变化而导致的匹配不稳定问题,而且在有挑战性的场景中过于稀缺而无法提供稳定和鲁棒的定位结果。在本文中,试图基于深度注意力机制,通过一种新颖的端到端深度神经网络,在场景中寻找显著的、稳定的且有利于长期匹配的特征。此外,学习的特征描述子能够建立鲁棒匹配,从而成功地估计出高精度的最佳相机姿态。本文使用新收集的数据集全面验证了我们方法的有效性,该数据集具有高质量的真实轨迹和传感器之间的硬件同步。实验结果表明,在各种具有挑战性的环境下,相比于基于激光雷达的定位方案,本文方法具有相当高的定位精度,从而为自动驾驶提供了一种可能的低成本定位方案。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。