本文提出了一种简单的结构性改进 self-modulation,以提高生成对抗网络 (GAN) 的性能,并证明其可以适用于不同的数据集、架构、损失函数、正则化和超参数设置,大规模的实证研究表明,相对 FID 降低了 5%~35%,并且在 124/144 的研究设置中提高了 GAN 的性能
Oct, 2018
本研究探索了利用预训练的基于样式生成器的 “样式空间” 控制本地翻译的可能性。提出了一种名为 “Style Intervention” 的轻量级优化算法,用于在高分辨率图像上进行面部属性编辑,证明了其在视觉和定量结果上的有效性,表现优于现有的基准。
Nov, 2020
提出了一种新的 3D 可控脸部操作方法:3D-FM GAN,通过将输入脸部图像和 3D 编辑的真实渲染相结合,可以提供高质量、身份保留、3D 可控的脸部操作,相较于现有技术,具有更好的可编辑性、更强的身份保护和更高的照片逼真度。
Aug, 2022
本文介绍了一种名为 ModularGAN 的多领域图像生成和图像到图像转换的方法,利用可复用和可组合的不同功能模块(例如编码、解码、变换)同时训练,并在测试时根据具体的图像转换任务组合这些模块,以显著提高生成(或转换为)任何所需领域图像的灵活性,并在多领域面部属性转移方面胜过现有方法。
Apr, 2018
本文提出一种能够支持 GAN 生成图像的局部编辑的有效方法,称为 LoGAN,利用内容调制,风格调制与优先级掩码来精确控制生成特征,在卧室合成等实验中展示了局部编辑图像的巨大潜力,可为多功能图像编辑提供模板。
May, 2021
使用生成对抗网络和空间变换网络 (STNs) 实现将前景对象和背景图像自然组合的研究,提出了迭代 STN 变形机制和逐步训练策略,适用于高分辨率图像。
Mar, 2018
通过在中间的潜空间使用具有空间维度的调制替换 AdaIN,我们提出了 StyleMapGAN,它使得通过编码器的嵌入比现有基于优化方法更加准确,同时保持 GAN 的属性。实验结果表明,我们的方法在各种图像操作任务中显著优于最先进的模型。
Apr, 2021
本文提出了一种基于风格迁移文献的替代生成对抗网络的生成器体系结构,能够自动学习高级属性和生成图像中的随机变化,改善传统的分布质量量度标准,提高内插质量和交互性能,同时也更好地分离出潜在的多变因素。
Dec, 2018
我们提出了一种简单的方法,它能够在不增加超参数的情况下产生高质量的多模态输出,将潜在代码视为卷积滤波器的修改器,从而使源域内容与目标域风格解耦。
该论文提出了一种新的范例 (layout-to-mask-to-image) 来实现从给定布局生成物体掩膜的任务,给出了一种通过实例感知和布局感知归一化来实现物体掩膜水平的风格控制,使用生成对抗网络 (GANs) 在两个控制水平上进行风格控制的方法,并在 COCO-Stuff 数据集和 Visual Genome 数据集上获得了最新成果。
Mar, 2020