AttrLostGAN:基于可重构布局和样式的属性控制图像合成
该论文提出了一种新的范例 (layout-to-mask-to-image) 来实现从给定布局生成物体掩膜的任务,给出了一种通过实例感知和布局感知归一化来实现物体掩膜水平的风格控制,使用生成对抗网络 (GANs) 在两个控制水平上进行风格控制的方法,并在 COCO-Stuff 数据集和 Visual Genome 数据集上获得了最新成果。
Mar, 2020
本文介绍一种基于布局和风格的生成对抗网络 [LostGANs] 的架构,能够从可重构的布局和风格中生成图像,实现了多物体样式生成,并在 COCO-Stuff 数据集和 Visual Genome 数据集上实现了最先进的性能。
Aug, 2019
该论文提出了一种基于属性控制的图像生成方法,该方法可以在实例级别实现对象外观的控制,并利用多种损失函数协作工作来提高生成图像的准确性、一致性和多样性,在 Visual Genome 数据集上的实验证明了该模型的能力,并证实了从布局任务中解耦对象 - 属性表示的可行性。
Aug, 2020
介绍了一种属性分解生成对抗网络,能够通过将人的属性嵌入潜在空间作为独立编码,通过混合和插值运算在显式样式空间中灵活控制属性,从而实现可控的人物图像生成,实现了更好的姿势和组件属性转换。
Mar, 2020
我们提出了一种弱监督方法,实现复杂场景下的有条件图像生成,在该方法中,用户可以对场景中出现的对象进行精细控制。我们利用稀疏语义地图来控制对象的形状和类别,以及文本描述或属性来控制局部和全局风格,同时引入语义注意力模块来支持文本描述的条件,该模块的计算成本与图像分辨率无关。为了进一步增强场景的可控性,我们提出了一个两步生成方案来分解背景和前景。我们使用大词汇目标检测器产生的标签地图来训练模型,这使我们能够访问未注释的数据,并提供结构化实例信息。在这样的设置下,我们报告了比全监督设置更好的 FID 得分。我们还展示了我们的模型在 COCO 和 Visual Genome 等复杂数据集上操作场景的能力。
Dec, 2019
Layout2Im 是一种基于布局的图像生成方法,将物体表示分解为指定和不确定部分,并使用卷积 LSTM 编码并解码整个布局,以生成准确且多样化的图像,提高了最佳 Inception 分数 24.66%至 28.57%。
Nov, 2018
通过将文本渲染和布局到图像生成任务融合为一个任务,本文提出了一种布局可控的文本 - 对象综合 (LTOS) 任务,旨在根据预定义的对象布局和文本内容合成具有对象和视觉文本的图像。
Apr, 2024
本文提出了一种个性化生成先验的方法,该方法可以显式地控制一组属性。我们在 MyStyle 的基础上构建,提出了一个新的优化系统,该系统对潜在空间进行组织,并提出一种损失,使其沿着一组特定方向对应于其属性的潜在代码。我们展示了我们的方法可以合成,编辑和增强个人图像,并对属性具有很好的控制,同时保留该个人的独特面部特征。
Jun, 2023