EGAIN: 扩展的 GAN 逆向
提出了一种新的 “不变编码生成式对抗网络”(IVE-GANs)框架,利用特定数据的不变特征进行逆向映射,使生成器可以涵盖更多数据模式并提升生成效果和表示能力,并在多个数据集上进行了验证。
Nov, 2017
该研究提出使用 GAN 作为先验来解决不适定的反演成像问题,并将方法应用于面部和材料的固有图像分解。该方法建立在 GAN 成功捕捉复杂图像分布的基础上,并展示了通过逆转多个 GAN 来维持分布先前的可能性,其是模块化的,可以成功地分解合成和真实图像,并利用 GAN 潜在空间的属性,提供了额外的优势,如图像重照。
May, 2023
通过先前训练好的 GAN 模型,将图像投影到潜在空间中以获取表示,我们可以在 MNIST 任务和 Omniglot 任务中成功地保留数字和字符的信息,这种方法可以应用于一次性学习。
Nov, 2016
本文对条件生成对抗网络进行研究和评估,采用编码器来反向映射 cGAN,可重建和修改真实图像,这种结合方式被称为可逆 cGAN,可对真实图像进行复杂的确定性修改。
Nov, 2016
利用样式生成对抗网络(StyleGAN)的潜在空间,将真实图像反转并通过语义丰富的特征表示进行多项编辑,进一步扩展到将被擦除的图像反转到 GAN 的潜在空间中进行逼真修复和编辑的更为困难的任务,通过将反转的潜在编码与随机样本的 StyleGAN 映射特征组合,通过训练编码器和混合网络,利用生成的数据来鼓励混合网络同时利用两个输入,并利用高速特征来防止修复部分与未被擦除部分的颜色不一致,并通过与先进的反转和修复方法进行实验和对比,定量指标和视觉比较显示出显著的改进。
Jul, 2023
本文提出了一种域内 GAN 反演方法,旨在通过一个新颖的领域引导编码器将真实图像映射到 GAN 的本机潜在空间中,从而精确重构输入图像并同时确保倒置代码在语义域内,以便支持各种基于变化倒置代码的图像编辑任务。实验表明,我们的反演方法实现了令人满意的真实图像重建,同时大大提高了各种图像编辑任务的效率,并远远超过了当前领先的方法。
Mar, 2020