使用复制粘贴生成对抗网络进行目标发现
本文提出了一种基于弱监督学习框架的对象实例分割方法,使用对抗训练的方法学习对象掩模,利用剪切 - 粘贴的游戏过程,通过掩模生成器和区分器的协同作用来实现分割掩模的优化,实验结果表明,该方法在不需要手工标注分割建议的情况下,可以超越现有的弱监督分割方法,并获得了 90% 的监督分割性能。
Mar, 2018
本文提出了一种基于自监督的 Cut-and-Paste GAN 方法,可以在不需要手动注释标记的情况下进行前景对象分割和生成逼真的合成图像,并且采用了 U-Net 判别器,通过伪标签学习语义和结构信息来扩展标准判别器的能力。实验结果表明,该方法显著优于标准基准数据集上的现有方法。
Jan, 2023
本文介绍了一种新颖的网络训练方法和学习目标,采用深度生成对抗网络以及新的相似度度量方法,用于发现图片中的多个对象实例、弱监督对象检测及排名 GAN,以实现对应用的提高和优化。
Nov, 2017
本文提出了一种基于对物体的关注的生成对抗网络,可用于复杂场景的文本到图像合成,该网络生成器长注重于文本描述中最相关的单词和预生成的语义布局,以合成显著物体,同时提出了一种快速区域卷积神经网络(Fast R-CNN)的新技术,以提供丰富的针对对象的区分信号,判断生成的物体与文本描述和预生成布局是否匹配。该提出的 Obj-GAN 在大规模 COCO 基准测试中表现出色,提高了 27%的 Inception 分数并降低了 11%的 FID 分数。通过分析它们的机制和可视化他们的注意层,提供了传统网格注意和新型对象驱动注意之间的全面比较,展示了本模型如何高质量地生成复杂场景的见解。
Feb, 2019
本文提出了一种名为 T-GD 的转移性 GAN 图像检测框架,它包括一个教师模型和一个学生模型,通过迭代地相互训练和评估来提高检测性能,着重于提高 GAN 图像检测的可转移性和迁移学习能力,可以在没有元数据信息的情况下,通过很少的数据就能够有效地检测最新的 GAN 图像。
Aug, 2020
本文介绍了一种无需人工注释即可学习如何从图像集合中分割对象的模型构建框架,通过训练分层场景的生成模型和特征向量编码器,结合阈值分割技术实现了真实图像中多类物体的自动识别与分割。
May, 2019
利用现代生成模型和多模态学习的组合潜能,本研究提出了一种完全自动化的框架,可对卫星图像上的目标进行检测。我们利用 CLIP(Contrastive Language-Image Pre-Training)的能力来将图像特征与文本描述相关联,并识别生成器网络中的神经元以构建即时目标检测器。
Oct, 2022
提出了一种名为 PasteGAN 的半参数方法,结合场景图和图像裁剪来生成具有所需对象和丰富交互的图像,使用 Crop Refining Network 和 Object-Image Fuser 设计算法来增强对象间的交互,并设计了 Crop Selector 来选择最兼容的对象进行生成。在 Visual Genome 和 COCO-Stuff 数据集上通过评估表明,该方法显著优于 SOTA 方法。
May, 2019
本研究提出了一种无需标注的无监督学习方法,结合了生成对抗网络和变分自编码器,实现了条件图像生成、前景分割、分级聚类、物体去除和背景补全等多项功能,并在相关任务上取得了最新的最优结果。
Dec, 2019
本文提出 Composition-by-Decomposition 网络,采用两个独立分布的物体生成具有真实纹理和形状的合成图像,以此捕捉多物体之间的空间相互作用关系,从而在生成场景方面获得更好的效果。
Jul, 2018