扰动生成模型中物体分割的出现
该论文提出了一种使用预训练的 GANs 自动提取前景 - 背景特征进行图像分割的方法,并在多个数据集上与现有方法进行了比较,证明其不需要人类监督就能够以良好的效果进行图像分割。
May, 2021
提出一种利用 StyleGAN 生成的物体进行非监督分割的框架,通过在 StyleGAN2 发生器结构中引入分割分支、将生成器分为前景和背景网络,可使我们以非监督的方式生成前景物体的软分割掩模。根据多个物体类别的实验结果,它可以与最好的非监督分割方法相比实现明显的改善。
Mar, 2021
提出了一种自动合成图像和分割掩模的方法,利用生成式对抗网络学习将图像分解成前景和背景层,生成高质量数据集并用于训练前景 - 背景分割网络,同时使用前景背景分割网络稳定分层 GAN 的训练。实验证明其生成质量和分割性能与相关方法相似。
Apr, 2021
本文提出一种训练生成模型的方法,通过强制要求上下文信息分离和知觉循环一致性的结合,让潜在变量只会影响到某个物体的局部区域,从而实现对象为中心的操作,而且不需要对象级别的注释。
Apr, 2020
本文提出了一种端到端的学习框架,其中使用深度卷积网络实现了将前景 / 背景标签分配给所有像素的结构化预测,在无需看到训练期间未曾见过的物体类别的情况下生成了像素级的前景对象分割,并在 ImageNet 和 MIT ObjectDiscovery 数据集上显著改善了前景分割的最新技术成果。我们最后展示了该方法如何使图像检索和图像重排具备更好的应用前景图。
Jan, 2017
本研究提出了一种生成图像的模型,其对图像中的物体进行分割并学习了一种分离物体、背景及其深度和位置的结构化潜变量表示,它可以在无监督的情况下进行训练。该模型可以生成完整的物体,处理遮挡,并能够将新图像分解成组成部分,包括深度排序和遮挡部分的分割。
Apr, 2020
本文提出了一种使用自编码器模拟场景背景的低维流形,通过与原始图像进行对比实现前景 / 背景分割,自编码器同时用于预测背景噪音,从而计算每一帧的像素相关阈值进行前景分割。该模型在 CDNet 2014 和 LASIESTA 数据集上超越了现有技术,且能够在某些非视频图像数据集上实现背景重构。
Dec, 2021
本研究提出了一种无需标注的无监督学习方法,结合了生成对抗网络和变分自编码器,实现了条件图像生成、前景分割、分级聚类、物体去除和背景补全等多项功能,并在相关任务上取得了最新的最优结果。
Dec, 2019
本文提出了一种基于生成对抗网络的方法,以隐式关键点作为上下文条件,生成与引导图像细分任务对应的掩模图像。该方法不仅不需要对数据进行标注,而且还可以提高系统对视角和目标位置变化的容忍度。通过生成图像 - 掩模对,本文所提出的方案在公认的基准测试上优于现有的无监督分割方法。
Dec, 2021