本文探讨了使用生成对抗网络 (GAN) 合成高度逼真图像的优化问题,针对当下模型存在的问题,提出了一种修改规则和设计模型的方法。实验表明,我们的方法可以更有效地训练 GAN 模型,并以 3D 物体投影问题为例进行了验证。
May, 2017
本文主要探讨如何通过线性转换生成图像的特征向量来实现对生成对图像内容的语义控制,并提出了两种基于语义的图像编辑方法:语义条件采样和语义图像编辑。
Apr, 2021
本文研究如何扩展 GAN 模型可达到的视觉效果,通过在生成器参数空间中探索方向,发现了许多可解释性方向,这是非常重要的,因为这些方向可以用于语义操作,这些操作无法通过转换潜在的向量代码实现。
Nov, 2020
本文提出一种能够支持 GAN 生成图像的局部编辑的有效方法,称为 LoGAN,利用内容调制,风格调制与优先级掩码来精确控制生成特征,在卧室合成等实验中展示了局部编辑图像的巨大潜力,可为多功能图像编辑提供模板。
May, 2021
本文提出了一种对物体进行语义操纵的新的生成对抗网络方法,使用对比对抗目标而不是直接将合成样本接近目标数据,以生成具有高可视度和合理的对象语义的操作结果,并在多个语义操作任务上展示了我们的模型的优越性。
Aug, 2017
本文提出利用生成对抗网络(GAN)为新手用户设计真实世界形状,使用具有简单界面的体素网格进行编辑。该方法的主要优势是通过学习投影和生成算子来协助用户创建背景分布对象形状的 3D 模型,同时不必指定所有细节。通过该算法及工具的实验表明 GAN 是计算机辅助交互建模的一种有前途的方法。
Jun, 2017
该论文研究了生成模型的视觉泛移能力,发现虽然目前的生成对抗网络(GAN)可以很好地拟合标准数据集,但它们仍然没有成为视觉流形的全面模型。同时,研究者还发现这些模型反映了训练数据集的偏差,并提出了一些缓解问题的技术。
Jul, 2019
本文通过使用由 GANs 学习得到的图像先验知识与个体图像的图像统计特征相结合,解决了对已有自然照片的高级属性进行操控的问题,提出了一种准确重构并合成新内容且能够保持输入图像特征的交互式系统,并在多个语义图像编辑任务上展示了方法的有效性。
May, 2020
本文提出了一种新的方法,通过找到生成模型中有意义的方向来提高生成模型潜在空间的可解释性,从而精确地控制生成图像的特定属性,如位置或比例。该方法对于搜索编码生成图像的简单变换方向(如平移,缩放或颜色变化)特别适用,并在 GAN 和变分自动编码器模型的质量和量化方面得到了证明。
Jan, 2020
提出了一种单一的文本到图像生成和操纵的流程,其中在我们的流程的第一部分,介绍了 TextStyleGAN 这个在文本上进行训练的模型;第二部分使用预训练的 TextStyleGAN 权重进行语义面部图像操纵,并通过在潜空间中找到语义方向来完成。我们展示了该方法可以用于广泛的面部图像属性操纵,并介绍了 CelebTD-HQ 数据集作为 CelebA-HQ 的扩展,其中包含了人脸及相应的文本描述。