OmniNet:基于环视鱼眼镜头的多任务视觉感知系统

2021-03-19 12:59:42 浏览数 (1)

作者丨黄浴@知乎

来源丨https://zhuanlan.zhihu.com/p/351965263

编辑丨3D视觉工坊

2021年2月15日上传arXiv论文:“OmniDet: Surround View Cameras based Multi-task Visual Perception Network for Autonomous Driving”,作者来自Valeo公司和德国一所大学。

本文讨论的是一个环视鱼眼镜头的多任务视觉感知系统,其完成的包括:深度估计、视觉里程计、语义和运动分割、目标检测和镜头污染检测。特别是提出了一个camera geometry based adaptation mechanism,对镜头畸变模型编码。由于方框不适合鱼眼镜头图像的目标表示,采用了polygon with non-uniformly sampled vertices。

整个网络称为OmniDet模型,输出结果如图为例:(a) Rear-Camera Input Image, (b) Distance Estimation, (c) Semantic Segmentation, (d) Motion Estimation, (e) 24-sided Polygon based Object Detection 和 (f) Soiling Segmentation (asynchronous)。

首先是无监督深度估计和视觉里程计:基于作者以前的工作FisheyeDistanceNet。

目标检测:采用YOLO3,基于针对鱼眼镜头的目标polygon表示,即PolyYOLO。

关于目标表示法的性能比较如表:

分割任务是有监督的:基于Lovasz-Softmax loss 和 Focal loss。

污染检测:基于作者之前的模型SoilingNet,但采用asynchronous backpropagation,调整解码器部分,训练中固定编码器部分。输出也从格子变成pixel level segmentation。

如表是joint training中任务加权方法比较:其中有 uncertainty loss (Kendall), gradient magnitude normalization GradNorm, dynamic task prioritization DTP, dynamic weight average DWA 和 geometric loss。作者提出的是VarNorm for variance normalization。

本文提出camera geometry tensor 处理 multiple viewpoints,类似工作如CAM-Convs;同时改变camera’s intrinsic distance estimation方法。

在Woodscape fisheye dataset, 有12 组不同的摄像头,其intrinsic parameter有些变化。采用单个模型的好处是:(1) 嵌入系统而已,这样存储小,数据读取快,效率高;(2) 训练数据更大 和不同视角图像正则化容易;(3) 维护模型简单。

如图所示:上述工作即Self-Attention Network (SAN) encoder module。

在多任务的框架下,协调工作有:

1)处理动态目标和无限深度范围;

2)语义导引的深度头和检测头;

3)自注意机制和语义特征对检测的帮助。

这些工作带来的性能提升见下表:

这是深度模型估计的性能比较:

这是VO模型的性能比较:

关于多任务和单任务训练的性能比较如下表:

本文仅做学术分享,如有侵权,请联系删文。

0 人点赞