关于多对象遮挡的鲁棒实例分割推理
该研究提出了一种新的算法,用于2D图像的多区域分割,其中的对象可能会部分遮挡,该算法基于观察到人类在此任务上的表现受先前关于可信形状的知识以及考虑到已知遮挡对象的形状的影响-一旦识别出遮挡区域,形状先验可以用于猜测缺失部分的形状。
Jun, 2016
本研究中,我们利用深度卷积神经网络架构在2D图像和3D空间中定位语义部件并推断它们的可见性状态,其利用合成数据和模拟的遮挡情况训练网络,并表明了其在现实图像基准测试中具有最先进的性能和有效的迁移知识。
Dec, 2016
该论文介绍了一种基于距离变换的对象段表示方法和基于残差解卷积结构的对象掩码网络,实现了跨越边界框的对象分割;并将其整合到一个多任务网络级联框架中,学习了最终二进制对象掩码。实验表明,这种方法在目标生成和实例分割方面优于现有的技术。
Dec, 2016
本篇论文介绍了一种用于检测部分遮挡对象的语义部分的方法,该方法使用本地视觉线索的置信度进行语义部分的检测并使用简单的投票技术来处理局部线索。实验证明,该方法在存在遮挡的情况下,在语义部分检测方面性能优于其他竞争方法。
Jul, 2017
该研究试图将深度卷积神经网络与组合模型相结合,以解决当前计算机视觉领域的一个基本问题:在高识别性的同时识别部分遮挡的物体。研究者提出了一种学习两步法,即训练标准DCNN进行图像分类,然后将DCNN特征聚类成字典,并建议用组合模型混合以解决空间激活模式的重要变化问题。该研究表明,组合模型与DCNNs的结合解决了当今深度学习方法在计算机视觉中的基本问题,即在未曾接受训练的情况下识别部分遮挡的物体,同时对不发生遮挡的物体保持高识别性能。
May, 2019
本文提出了一种利用语境感知的 Compositional 物体检测网络,通过对上下文的切分以及扩展部件投票机制来解决部分物体被遮挡的问题,实验表明该模型在检测上表现出了强大的鲁棒性。
May, 2020
本研究提出了 CompositionalNets,一种将深度卷积神经网络和基于部件的模型统一起来的可解释深度体系结构,具有天生的部分遮挡鲁棒性,同时能够将图像分解为对象和上下文,并基于非遮挡部分的对象来识别遮挡对象。实验结果表明,CompositionalNets在分类和检测部分遮挡对象方面比传统的深度卷积神经网络有显著的优势,并可以准确地定位遮挡物。
Jun, 2020
我们收集了一个大规模的被遮挡的视频实例分割数据集,即检测,在遮挡场景中同时分割和跟踪实例,实验表明,现有的视频理解系统无法理解这些被遮挡的实例,我们还提出了一个简单的插件模块,用于补充遮挡引起的缺失对象线索,建立在MaskTrack R-CNN 和SipMask上,在OVIS数据集上取得了显着的AP提升。
Feb, 2021
该研究提出了使用双重卷积神经网络(Bilayer Convolutional Network)对高度重叠的物体进行实例分割,特别是在存在遮挡情况时能够提高性能,并通过实验证明了其简洁性及有效性。
Mar, 2021
通过Bilayer卷积网络和视觉Transformer对遮挡的目标进行建模,以同时检测遮挡物和部分遮挡实例,并使用遮挡物和遮挡实例查询将遮挡关系分离,从而实现图像实例分割。
Aug, 2022