论文地址: http://arxiv.org/pdf/2012.05258v1.pdf
代码: 公众号回复:09110402425
来源: 约翰霍普金斯大学,谷歌
论文名称:ViP-DeepLab Learning Visual Perception with Depth-aware Video Panoptic Segmentation
原文作者:Siyuan Qiao
内容提要
在本文中,我们提出了一个统一的模型ViP-DeepLab,试图解决长期存在且具有挑战性的逆向投影问题,我们将其建模为从透视图像序列恢复点云,同时为每个点提供实例级语义解释。解决这个问题需要为视觉模型每个3D点预测空间位置,语义类,和时间一致的实例标签。ViP-DeepLab通过联合进行单目深度估计和视频全景分割来实现上述问题。我们将这一联合任务命名为深度感知视频全景分割,并提出了一个新的评价指标和两个衍生的数据集,方法和数据集都是开源的。在单个子任务上,ViP-DeepLab也取得了最先进的结果,在Cityscapes-VPS上比以前的方法VPQ高出5.1%,在KITTI单目深度估计基准上排名第一,在KITTI MOTS行人上排名第一。
主要框架及实验结果
声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。