K-Net:面向统一图像分割
本文介绍了一种名为 Video K-Net 的全新视频语义分割框架,通过与基于 kernel 的出现模型相结合来跟踪视频中的物体实例,并在多个数据集上达到了最佳表现,此外,该框架也能进一步扩展为视频示例分割和视频语义分割。
Apr, 2022
本文提出了一种统一的全景分割网络(UPSNet),通过在单个骨干残差网络上设计基于可变卷积的语义分割头和基于 Mask R-CNN 的实例分割头,同时解决这两个子任务,并引入了一个无需参数的全景头来通过像素级分类解决全景分割,可帮助更好地解决语义分割和实例分割之间的冲突。此外,具有处理不同实例数量挑战的功能,可以端到端地在底部模块中反向传播。实验结果表明,UPSNet 可以实现最先进的性能,并具有更快的推理速度。
Jan, 2019
我们提出了一种端到端的网络,用于连接全景分割的训练和推理管道,通过使用密集实例亲和力来捕获像素对属于相同实例的概率,并与 ResNet-50 骨干网络配合使用,实现了对 Cityscapes 和 COCO 数据集的新记录。
Jan, 2020
提出了一种用于全景分割的单一网络方法,该方法将联合训练的语义分割和实例分割网络的预测结果结合起来使用启发式方法,通过对 ResNet-50 特征提取器的共享来加快训练速度并提高内存效率,并使用 Mask R-CNN 类型的架构进行实例分割和增加 Pyramid Pooling 模块进行语义分割。在 COCO 和 Mapillary 联合识别挑战赛 2018 中,我们的方法在 Mapillary Vistas 验证集上获得了 17.6 的 PQ 分数,在 COCO 测试开发集上获得了 27.2 的 PQ 分数。
Sep, 2018
该论文提出了一种新型的端对端网络,能够高效地预测实例和物体分割,并引入了一种新的空间排名模块以处理预测实例之间的遮挡问题。在 COCO Panoptic 基准测试上取得了可喜的成果。
Mar, 2019
本文介绍了一种名为 Panoptic FCN 的概念简单、强大、高效的全景分割框架,该方法旨在以统一的卷积管道中表示和预测前景物体和背景杂物。通过提出的内核生成器,Panoptic FCN 将每个对象实例或杂物类别编码为特定的内核权重,并通过将高分辨率特征直接卷积来生成预测。通过这种方法,实例感知和语义一致的特性可以分别在一个简单的生成内核,然后进行分割的工作流中得以满足。在 COCO、Cityscapes 和 Mapillary Vistas 数据集上,不需要额外的定位框或实例分离,所提议的方法在单尺度输入上具有比以前的基于框和无框模型更高的效率。
Dec, 2020
本文介绍了一种用于 Panoptic 分割任务的新方法,即在 Mask R-CNN 模型中使用共享的 Feature Pyramid Network 实现对实体和语义分割任务的联合建模,该方法既能保持实体分割的高效性,而且还能实现语义分割的最佳性能。
Jan, 2019
本研究提出了一种名为 TernausNetV2 的简单卷积神经网络,可以从高分辨率卫星图像中提取物体的实例级信息,具有应用于语义分割和实例分割任务的普适性,通过扩展视觉到更广泛的光谱范围中实现转移学习,实现了在 DeepGlobe-CVPR 2018 建筑检测子挑战中优越的性能。
Jun, 2018
本文提出了一种联合分类、检测和语义分割的方法,其中编码器在三个任务之间共享。该方法非常简单,可以端到端训练,在具有挑战性的 KITTI 数据集中表现良好,在道路分割任务中优于现有技术。而且,我们的方法非常高效,执行所有任务只需要不到 100 毫秒。
Dec, 2016