基于可见区域分割和形状先验的遮挡分割
本文提出了一种无需预测提议、将 amodal mask 分配到不同层级、通过在每一层独立地进行 amodal 实例回归来预测交通参与者及其语义标签的 proposal-free 多标签多类别无缝分割网络,并采用共享骨干和不对称双解码器的 et 架构以及 amodal mask refiner,其在 BDD100K-APS 和 KITTI-360-APS 数据集上的测试表明超越了现有技术水平。
May, 2022
ShapeFormer 是一个基于 Transformer 的模型,它通过 visible-to-amodal 转换来解决 AIS 方法中可见特征与整体特征混淆的问题,包括 Visible-Occluding Mask Head、Shape-Prior Amodal Mask Head 和 Category-Specific Shape Prior Retriever 等关键模块,通过在各种 AIS 基准测试中的全面实验验证了其有效性。
Mar, 2024
该研究提出了一种新的算法,用于 2D 图像的多区域分割,其中的对象可能会部分遮挡,该算法基于观察到人类在此任务上的表现受先前关于可信形状的知识以及考虑到已知遮挡对象的形状的影响 - 一旦识别出遮挡区域,形状先验可以用于猜测缺失部分的形状。
Jun, 2016
我们研究的问题是不完全图像分割:预测包括可见和不可见(被遮挡)部分的完整对象分割掩膜。我们使用 3D 数据构建了一个自动管道来确定真实的部分遮挡对象的不完全真值分割掩膜,并通过两种架构变体探索了在野外处理不完全完成任务的方法。我们的方法在包括 COCOA 和我们的新 MP3D-Amodal 数据集在内的不完全分割数据集上取得了最新的最好性能。
Dec, 2023
通过逐步建模视觉特征和粗略预测分割的精细信息,我们提出了一种名为 “Coarse-to-Fine Segmentation (C2F-Seg)” 的新方法来解决涉及对象可见和遮挡部分的不完全分割的挑战。同时,我们创建了一个合成的整体性数据集 MOViD-A,用于图像和视频整体性对象分割。通过在两个基准数据集 KINS 和 COCO-A 上进行大量评估,我们实证了 C2F-Seg 的优越性,并展示了在 FISHBOWL 和我们提出的 MOViD-A 上进行视频整体性对象分割任务的潜力。
Aug, 2023
提出一种名为 amodal panoptic segmentation 的任务,旨在同时预测 stuff 类可见区域的像素级别语义分割标签和 thing 类可见区域以及遮挡区域的实例分割标签。扩展两个基准数据集以便研究新任务,在公开可用的 KITTI-360-APS 和 BDD100K-APS 中提供像素级别的 amodal panoptic 分割标签。提出了 APSNet 模型,它显式地建模了遮挡物和被遮挡物的复杂关系。在两个基准测试上达到了最先进的性能。
Feb, 2022