【图像分割】开源 | 谷歌--提出深度感知视频全景分割ViP-DeepLab,在KITTI单目深度估计和MOTS行人上排名第一!

2021-01-27 15:42:14 浏览数 (1)

论文地址: http://arxiv.org/pdf/2012.05258v1.pdf

代码: 公众号回复:09110402425

来源: 约翰霍普金斯大学,谷歌

论文名称:ViP-DeepLab Learning Visual Perception with Depth-aware Video Panoptic Segmentation

原文作者:Siyuan Qiao

内容提要

在本文中,我们提出了一个统一的模型ViP-DeepLab,试图解决长期存在且具有挑战性的逆向投影问题,我们将其建模为从透视图像序列恢复点云,同时为每个点提供实例级语义解释。解决这个问题需要为视觉模型每个3D点预测空间位置,语义类,和时间一致的实例标签。ViP-DeepLab通过联合进行单目深度估计和视频全景分割来实现上述问题。我们将这一联合任务命名为深度感知视频全景分割,并提出了一个新的评价指标和两个衍生的数据集,方法和数据集都是开源的。在单个子任务上,ViP-DeepLab也取得了最先进的结果,在Cityscapes-VPS上比以前的方法VPQ高出5.1%,在KITTI单目深度估计基准上排名第一,在KITTI MOTS行人上排名第一。

主要框架及实验结果

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。

0 人点赞