深度感知全景分割
该论文提出了一种新型的端对端网络,能够高效地预测实例和物体分割,并引入了一种新的空间排名模块以处理预测实例之间的遮挡问题。在 COCO Panoptic 基准测试上取得了可喜的成果。
Mar, 2019
我们提出了一种端到端的网络,用于连接全景分割的训练和推理管道,通过使用密集实例亲和力来捕获像素对属于相同实例的概率,并与 ResNet-50 骨干网络配合使用,实现了对 Cityscapes 和 COCO 数据集的新记录。
Jan, 2020
图像分割和深度估计是计算机视觉中关键的任务,特别是在自动驾驶场景中。我们基于一种全新的深度学习网络 Panoptic-DepthLab,将这两个任务结合起来,在分割网络中增加了深度估计分支,可以预测每个实例分割的深度。通过在 Cityscape 数据集上的评估,我们证明了我们的方法在实现高质量分割结果且能够通过颜色映射可视化深度方面的有效性。我们的提出的方法展示了将不同任务和网络结合以生成更全面的图像识别结果,以促进自动驾驶车辆的安全的新可能性。
Aug, 2023
PanopticFusion 是一种新颖的在线立体语义映射系统,能够在 stuff 和 things 的级别上密集预测背景区域(stuff)的类标签和不同前景物体(things)的各自分割,利用其空间哈希体积图表示可以重构大规模场景并提取标记的网格,通过融合 2D 语义和实例分割输出对 RGB 框架的像素级 Panoptic 标签进行首次预测,并将这些标签与深度测量一起整合到体积地图中进行 CRF 模型的规范化,通过提出的一种新的一次势近似和地图分割策略实现在线 CRF 推理,我们在 ScanNet(v2)数据集上评估了系统性能,发现其在语义和实例分割基准测试中均优于或与最先进的脱机 3D DNN 方法相比,同时演示了利用该系统生成的 3D Panoptic 地图的有前途的增强现实应用。
Mar, 2019
深度感知全景分割是计算机视觉中的新兴话题,结合了语义和几何理解,以实现更稳健的场景解释。我们提出了一种深度统一框架,用于深度感知全景分割,通过相同的对象查询以分段方式执行联合分割和深度估计。为了缩小两个任务之间的差距,我们进一步设计了一种几何查询增强方法,利用潜在表示将场景几何集成到对象查询中。此外,我们提出了一种双向引导学习方法,通过利用它们的相互关系来促进跨任务特征学习。我们的方法在 Cityscapes-DVPS 和 SemKITTI-DVPS 数据集上树立了深度感知全景分割的最新技术水平,并且我们的引导学习方法还在不完整监督标签下提高了性能。
Jul, 2023
本文提出了一种用于全景分割的深度神经网络,将语义分割与实例分割任务联合起来,从而在单次计算中为输入图像的每个像素提供类标签和唯一对象标识符,并且通过增强信息共享和合并启发式方法,单个网络的性能提高,如在 Cityscapes 上可获得 45.9 的 PQ 分数。
Feb, 2019
本文提出了一种深度感知全景分割 (DPS) 的统一框架,该框架通过应用动态卷积技术来解决全景分割和深度预测任务之间的互补关系,从而实现对单张图像进行实例级语义重建,通过实例级深度估计方案,为辅助监督深度学习而添加额外的实例级深度提示,实验结果表明该方法具有实用性和前景。
Jun, 2022