获取完整原文和代码,公众号回复:09101073096
论文地址: http://arxiv.org/pdf/2011.11964v2.pdf
代码: 公众号回复:09101073096
来源: Nanyang Technological University,香港中文大学
论文名称:LiDAR-based Panoptic Segmentation via Dynamic Shifting Network
原文作者:Fangzhou Hong
内容提要
随着自动驾驶技术的快速发展,为其传感系统配备更全面的3D感知功能变得至关重要。然而,现有的工作侧重于从激光雷达传感器解析目标(如汽车和行人)或场景(如树木和建筑)。在本文中,我们解决了基于激光雷达的全景分割任务,使用一个统一的方式解析目标和场景。我们提出了动态移动网络(DS-Net),它在点云领域作为一个有效的全景分割框架。特别是,DSNet有三个吸引人的特性:1)强大的主干设计。DS-Net采用了专为激光雷达点云设计的柱面卷积。提取的特征由语义分支和实例分支共享,它们以自底向上的聚类方式运行。2)复杂点分布的动态移位。我们发现,常用的聚类算法,如BFS或DBSCAN,无法处理点云分布不均匀和实例大小不同的复杂自动驾驶场景。因此,我们提出了一种高效的可学习的聚类模块——动态迁移,它可以动态地调整内核函数适应不同实例。3)共识驱动的融合。最后,利用共识驱动的融合来处理语义预测和实例预测之间的不一致。为了全面评估基于激光雷达的全景分割的性能,我们从两个大规模的自动驾驶激光雷达数据集SemantiKITTI和nuScenes构建并规划基准。大量的实验表明,我们提出的DS-Net实现了比目前最先进的方法更高的精度。值得注意的是,我们在SemantiKITTI的公开排行榜上取得了第一名的成绩,在PQ指标上比第二名高出2.6%。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。
分享最新的CVPR、ECCV、ICCV、IROS等人工智能论文,关注深度学习、自动驾驶领域。
点个“在看”,让我知道你的爱