通过双重学习机制,该论文提出了一种新的双重生成对抗网络模型 ——DualGAN,可在缺乏标签数据的情况下,实现多种图像翻译任务,并取得了可观的性能提升。
Apr, 2017
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
单个生成器的多领域图像翻译方法 SingleGAN,在多种无配对数据集上显示出明显的优势和普适性。
Oct, 2018
本文提出了一种基于双网络并行训练的新框架,用于域翻译,尤其擅长处理交叉模态翻译,保证了信息的共享和语义的保留。
Feb, 2021
该文介绍了一种基于生成对抗网络 (GANs) 的双生成器生成对抗网络 (G$^2$GAN) 方法,可以通过一种单一模型实现多个领域的非配对图像转换,并研究了不同的优化损失,以提高稳定性。该方法在 6 个公共数据集上进行广泛实验,证明了其相对于现有的 GAN 模型在模型容量和图片生成性能上具有卓越的优势。
Jan, 2019
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
本文介绍了一种名为 ModularGAN 的多领域图像生成和图像到图像转换的方法,利用可复用和可组合的不同功能模块(例如编码、解码、变换)同时训练,并在测试时根据具体的图像转换任务组合这些模块,以显著提高生成(或转换为)任何所需领域图像的灵活性,并在多领域面部属性转移方面胜过现有方法。
Apr, 2018
本文提出了一种基于显式域监督的非配对图像翻译框架 DosGAN,该框架使用分类网络提取每个图像的域特定特征,并使用另一个编码器提取域无关的特征,二者结合生成目标域的图像。该方法在多个数据集上进行了实验,证明了其有效性,并且可以进行任何两个图像之间的有条件翻译,而以前的模型不能处理此任务。
Feb, 2019
通过在预训练的 StyleGAN2 模型上进行一系列的模型变换,我们提出了一种新的图像到图像 (I2I) 转换方法,并提出了一种反演方法,以在源领域和目标领域之间进行 I2I 翻译。定性和定量评估证明了该方法在图像质量、多样性和与输入和参考图像的语义相似性方面具有优越性能,与最先进的作品相比。
Oct, 2020