全景式深度实验室
Panoptic-DeepLab 是一个用于全景分割的模型,具有简单、强大和快速的特点。通过采用语义和实例分割的双重 ASPP 和双重解码器结构,同时使用语义分割模型的典型设计和类别不可知的实例中心回归,Panoptic-DeepLab 超过了所有三个 Cityscapes 基准测试,取得了新的最佳表现,并在 Mapillary Vistas 测试集上提供了未来领先的 42.7% PQ 精度.
Nov, 2019
本文提出了一种用于全景分割的深度神经网络,将语义分割与实例分割任务联合起来,从而在单次计算中为输入图像的每个像素提供类标签和唯一对象标识符,并且通过增强信息共享和合并启发式方法,单个网络的性能提高,如在 Cityscapes 上可获得 45.9 的 PQ 分数。
Feb, 2019
本文提出了一种单次完整图像解析的方法,将语义分割和实例分割任务整合到一个流畅系统中,通过_DeeperLab_图像解析器实现,可以快速处理并用_PQ_和_PC_度量对_Mapillary Vistas_数据集的结果做出评估。
Feb, 2019
本文提出了一种基于密集检测和全局自注意力机制的新型单次全景分割网络,该网络采用参数自由的掩码构建方法,大大降低了计算复杂度,实现了高效的实时性能,并在 Cityscapes 和 COCO 基准测试上取得了很好的效果。
Dec, 2019
ViP-DeepLab 是一种联合模型,尝试解决视觉中长期存在且具有挑战性的逆投影问题。该模型通过联合执行单眼深度估计和视频全景分割来处理该问题,并提供每个点的实例级语义解释。在子任务中,ViP-DeepLab 也取得了最先进的结果,在 Cityscapes-VPS 中超越以前的方法 5.1% VPQ,在 KITTI 单眼深度估计基准测试中排名第一,在 KITTI MOTS 中排名第一。
Dec, 2020
提出了一种用于全景分割的单一网络方法,该方法将联合训练的语义分割和实例分割网络的预测结果结合起来使用启发式方法,通过对 ResNet-50 特征提取器的共享来加快训练速度并提高内存效率,并使用 Mask R-CNN 类型的架构进行实例分割和增加 Pyramid Pooling 模块进行语义分割。在 COCO 和 Mapillary 联合识别挑战赛 2018 中,我们的方法在 Mapillary Vistas 验证集上获得了 17.6 的 PQ 分数,在 COCO 测试开发集上获得了 27.2 的 PQ 分数。
Sep, 2018
提出了一种名为 Panoptic-PolarNet 的快速而强健的 LiDAR 点云全景分割框架,使用极坐标鸟瞰图表示进行语义分割和类无关实例聚类,以解决城市街景中实例的遮挡问题,实验结果表明 Panoptic-PolarNet 在 benchmark 数据集上表现优异。
Mar, 2021
图像分割和深度估计是计算机视觉中关键的任务,特别是在自动驾驶场景中。我们基于一种全新的深度学习网络 Panoptic-DepthLab,将这两个任务结合起来,在分割网络中增加了深度估计分支,可以预测每个实例分割的深度。通过在 Cityscape 数据集上的评估,我们证明了我们的方法在实现高质量分割结果且能够通过颜色映射可视化深度方面的有效性。我们的提出的方法展示了将不同任务和网络结合以生成更全面的图像识别结果,以促进自动驾驶车辆的安全的新可能性。
Aug, 2023
本研究提出了一种基于 CNN 的新型架构,可以进行端到端的训练,以提供无缝的场景分割结果。该网络结构采用了一种新颖的分割头,将由特征金字塔网络生成的多尺度特征与由轻量级 DeepLab 模块传递的上下文信息进行了无缝整合,从而预测一致的语义分割和检测结果。此外,研究人员还提出了一种替代 panoptic 度量的方法,克服了评估非实例类别时的局限性。通过在三个具有挑战性的街景数据集上测试,即 Cityscapes、Indian Driving Dataset 和 Mapillary Vistas,我们的网络架构取得了最先进的结果。
May, 2019