本文研究了一种新的有条件的图像翻译方法,并基于 GAN 和双学习处理了无成对数据的问题。实验结果表明该方法有效。
May, 2018
通过双重学习机制,该论文提出了一种新的双重生成对抗网络模型 ——DualGAN,可在缺乏标签数据的情况下,实现多种图像翻译任务,并取得了可观的性能提升。
Apr, 2017
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
该文介绍了一种基于生成对抗网络 (GANs) 的双生成器生成对抗网络 (G$^2$GAN) 方法,可以通过一种单一模型实现多个领域的非配对图像转换,并研究了不同的优化损失,以提高稳定性。该方法在 6 个公共数据集上进行广泛实验,证明了其相对于现有的 GAN 模型在模型容量和图片生成性能上具有卓越的优势。
Jan, 2019
单个生成器的多领域图像翻译方法 SingleGAN,在多种无配对数据集上显示出明显的优势和普适性。
Oct, 2018
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文介绍了一种名为 ModularGAN 的多领域图像生成和图像到图像转换的方法,利用可复用和可组合的不同功能模块(例如编码、解码、变换)同时训练,并在测试时根据具体的图像转换任务组合这些模块,以显著提高生成(或转换为)任何所需领域图像的灵活性,并在多领域面部属性转移方面胜过现有方法。
Apr, 2018
本文提出了一种基于显式域监督的非配对图像翻译框架 DosGAN,该框架使用分类网络提取每个图像的域特定特征,并使用另一个编码器提取域无关的特征,二者结合生成目标域的图像。该方法在多个数据集上进行了实验,证明了其有效性,并且可以进行任何两个图像之间的有条件翻译,而以前的模型不能处理此任务。
Feb, 2019
本研究探讨了利用预训练模型的知识迁移学习应用于生成式深度网络中的领域自适应,并发现该方法可以在目标数据有限时缩短收敛时间,显著提高生成图片的质量。
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017