在空间上不同的位置生成多个物体
本文提出了一种基于 Object-Centric GAN 的图像生成方法,使用 Scene-Graph Similarity Module 学习场景中物体之间的关系,并在生成器的条件机制上进行了改进,通过实验证明了该方法在生成多物体场景图像的质量和准确性方面的优势。
Mar, 2020
本文提出了一种基于对物体的关注的生成对抗网络,可用于复杂场景的文本到图像合成,该网络生成器长注重于文本描述中最相关的单词和预生成的语义布局,以合成显著物体,同时提出了一种快速区域卷积神经网络(Fast R-CNN)的新技术,以提供丰富的针对对象的区分信号,判断生成的物体与文本描述和预生成布局是否匹配。该提出的 Obj-GAN 在大规模 COCO 基准测试中表现出色,提高了 27%的 Inception 分数并降低了 11%的 FID 分数。通过分析它们的机制和可视化他们的注意层,提供了传统网格注意和新型对象驱动注意之间的全面比较,展示了本模型如何高质量地生成复杂场景的见解。
Feb, 2019
Generative Adversarial Networks 已经在绘制逼真的世界图片方面展现了相当可观的能力,现有的模型可以根据类别标签或标题等全局限制生成图像,但不能控制姿势或对象位置,本文提出了一种新的模型 ——Generative Adversarial What-Where Network,它能根据所描述的内容和位置进行图像综合,并在 Caltech-UCSD Birds 数据集上展示了高质量的 128 x 128 图片综合,还可以控制鸟周围的边界框及其组成部分,通过模拟条件分布,我们的系统还能够使各个部分进行控制,同时展示了在 MPII Human Pose 数据集的关于人体动作图像的文本与位置可控合成的初步结果。
Oct, 2016
本文提出一种训练生成模型的方法,通过强制要求上下文信息分离和知觉循环一致性的结合,让潜在变量只会影响到某个物体的局部区域,从而实现对象为中心的操作,而且不需要对象级别的注释。
Apr, 2020
本文介绍了一种新颖的网络训练方法和学习目标,采用深度生成对抗网络以及新的相似度度量方法,用于发现图片中的多个对象实例、弱监督对象检测及排名 GAN,以实现对应用的提高和优化。
Nov, 2017
COnditional COordinate GAN (COCO-GAN) 是一种基于空间坐标的图像生成器,通过学习空间关系实现全图像生成,并可实现超出边界和全景生成等多种应用。
Mar, 2019
本文提出了一种新方法,为生成目标图像,通过掌握给定背景信息,由文本属性生成目标物体图像,特别关注了控制物体和背景信息总和的多条件生成对抗网络方法(MC-GAN),在训练阶段通过生成物体和背景信息的合成块来实现。文中应用于实验,如 Caltech-200 鸟和 Oxford-102 花数据集,能够生成具有 128 x 128 分辨率的相片逼真的图像。
May, 2018
Layout2Im 是一种基于布局的图像生成方法,将物体表示分解为指定和不确定部分,并使用卷积 LSTM 编码并解码整个布局,以生成准确且多样化的图像,提高了最佳 Inception 分数 24.66%至 28.57%。
Nov, 2018
本文提出 Composition-by-Decomposition 网络,采用两个独立分布的物体生成具有真实纹理和形状的合成图像,以此捕捉多物体之间的空间相互作用关系,从而在生成场景方面获得更好的效果。
Jul, 2018