跨领域生成对抗网络:无监督多领域图像翻译
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本文介绍了一种基于共享潜在空间假设和 Coupled GANs 的无监督的图像到图像翻译框架,并在多个挑战性的无监督图像翻译任务中取得了高质量的翻译结果,同时也应用于域自适应并实现了最先进的基准数据集性能。
Mar, 2017
通过双重学习机制,该论文提出了一种新的双重生成对抗网络模型——DualGAN,可在缺乏标签数据的情况下,实现多种图像翻译任务,并取得了可观的性能提升。
Apr, 2017
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
本文介绍了一种名为ModularGAN的多领域图像生成和图像到图像转换的方法,利用可复用和可组合的不同功能模块(例如编码、解码、变换)同时训练,并在测试时根据具体的图像转换任务组合这些模块,以显著提高生成(或转换为)任何所需领域图像的灵活性,并在多领域面部属性转移方面胜过现有方法。
Apr, 2018
本文提出了一种基于生成对抗网络和自动编码器的双向图像转换方法,通过交叉域解缠表示技术,将内部表示分离成共享部分和专有部分,并可在不需要标注数据的情况下实现多模数据分布下的区分和检索。在多模图像翻译任务中,该模型优于现有的最新模型,并在具有挑战性的数据集上表现出更好的结果。
May, 2018
该文介绍了一种基于生成对抗网络 (GANs) 的双生成器生成对抗网络 (G$^2$GAN) 方法,可以通过一种单一模型实现多个领域的非配对图像转换,并研究了不同的优化损失,以提高稳定性。该方法在6个公共数据集上进行广泛实验,证明了其相对于现有的GAN模型在模型容量和图片生成性能上具有卓越的优势。
Jan, 2019
本文提出了一种基于显式域监督的非配对图像翻译框架DosGAN,该框架使用分类网络提取每个图像的域特定特征,并使用另一个编码器提取域无关的特征,二者结合生成目标域的图像。该方法在多个数据集上进行了实验,证明了其有效性,并且可以进行任何两个图像之间的有条件翻译,而以前的模型不能处理此任务。
Feb, 2019
本文针对GAN模型在非对称翻译任务中的不足,提出了一种AsymmetricGAN模型,采用不对称大小和不同参数共享策略的翻译和重建生成器,以适应不对称需求,在无监督和有监督的图像翻译任务中,提出了不同的优化损失来提高AsymmetricGAN的训练效果和稳定性,并通过多个公开数据集的实验,证明了该模型比现有的GAN模型具有更强的模型能力和更好的生成效果。
Dec, 2019
本研究提出了一种新的框架,Generative Prior-guided UNsupervised Image-to-image Translation (GP-UNIT),利用预训练的类条件生成对抗网络(GANs)的生成先验来跨越不同领域学习丰富的内容对应关系,并且我们还提出了一种新的粗粒度到细粒度的策略,通过在抽象的语义层面上捕捉一个强大的粗级内容表示来连接对象,进而为更准确的多层级内容对应学习适应性的细粒度内容特征。实验表明我们提出的方法优越性强,可适用于不同的领域和更挑战的任务。
Apr, 2022