编辑风格:揭示GAN的本地语义
本文提出了一个名为InterFaceGAN的新框架,用于解释GAN学习到的语义面部编辑,并深入研究不同语义如何编码在GAN的潜在空间中。我们发现,精心训练的生成模型的潜在编码实际上学习了一个分离的表示,在线性变换后解旋,通过子空间投影来解开某些绑定属性,实现更精确的面部特征控制,并产生可控的面部属性表示的结果表明GAN具有生成高保真图像的能力。
Jul, 2019
本文通过使用由 GANs 学习得到的图像先验知识与个体图像的图像统计特征相结合,解决了对已有自然照片的高级属性进行操控的问题,提出了一种准确重构并合成新内容且能够保持输入图像特征的交互式系统,并在多个语义图像编辑任务上展示了方法的有效性。
May, 2020
通过在 GAN 的 latent space 中引入条件属性特征,作者提出了 StyleFlow 来实现运用属性控制生成样本和实现编辑的两个子问题, 并在实际应用中验证了 StyleFlow 的有效性和优越性。
Aug, 2020
本研究探索了利用预训练的基于样式生成器的“样式空间”控制本地翻译的可能性。提出了一种名为“ Style Intervention”的轻量级优化算法,用于在高分辨率图像上进行面部属性编辑,证明了其在视觉和定量结果上的有效性,表现优于现有的基准。
Nov, 2020
本文研究如何扩展GAN模型可达到的视觉效果,通过在生成器参数空间中探索方向,发现了许多可解释性方向,这是非常重要的,因为这些方向可以用于语义操作,这些操作无法通过转换潜在的向量代码实现。
Nov, 2020
通过在中间的潜空间使用具有空间维度的调制替换AdaIN,我们提出了StyleMapGAN,它使得通过编码器的嵌入比现有基于优化方法更加准确,同时保持GAN的属性。实验结果表明,我们的方法在各种图像操作任务中显著优于最先进的模型。
Apr, 2021
提出一种新的方法 EditGAN,通过修改高分辨率部分分割掩码来实现高质量、高精度的语义图像编辑,同时利用生成对抗网络和条件潜空间优化来实现编辑。
Nov, 2021
本文研究在生成模型中,利用非线性的神经 ODE 来处理非纹理变化因素,挖掘潜在编码空间中的更多属性,并对大量具有已知属性的数据集进行实证研究。
Nov, 2021
通过训练一个生成器来分别对局部语义部分进行建模,控制不同区域的纹理并且实现更加细粒度的合成和编辑,SemanticStyleGAN作为具有内置解缠结的通用先验模型,可以促进基于GAN的应用程序的发展并实现更多的下游任务。
Dec, 2021
本文介绍了GANs和StyleGAN,讨论了其在图像合成和潜在空间方面的应用和研究趋势,强调了其生成图像编码的潜力和限制,以及视觉先验的构建和使用,同时指出了任务和目标特定的研究方向。
Feb, 2022