用生成式对抗网络实现无监督图像翻译
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
本文介绍了一种基于共享潜在空间假设和 Coupled GANs 的无监督的图像到图像翻译框架,并在多个挑战性的无监督图像翻译任务中取得了高质量的翻译结果,同时也应用于域自适应并实现了最先进的基准数据集性能。
Mar, 2017
该研究论文探讨图片到图片翻译的问题,以及如何在计算机视觉应用中如上色、修补和分割等方面应用无监督学习和生成对抗网络,并提出两种模型以解决 GAN 稳定性问题,并得出与文献讨论一致的问题假设。
Oct, 2023
通过在预训练的 StyleGAN2 模型上进行一系列的模型变换,我们提出了一种新的图像到图像 (I2I) 转换方法,并提出了一种反演方法,以在源领域和目标领域之间进行 I2I 翻译。定性和定量评估证明了该方法在图像质量、多样性和与输入和参考图像的语义相似性方面具有优越性能,与最先进的作品相比。
Oct, 2020
本文研究了儿童图书插图作为无配对图像转换的新领域,并提出了一种新的生成器网络来解决当前图像转换模型在样式和内容之间无法取得平衡的问题。同时,本文还提出了一种新的评估框架,通过单独的分类器来考虑内容和样式,并在插图数据集上表现更好。
Feb, 2020
通过双重学习机制,该论文提出了一种新的双重生成对抗网络模型 ——DualGAN,可在缺乏标签数据的情况下,实现多种图像翻译任务,并取得了可观的性能提升。
Apr, 2017
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
本研究提出了一种新的框架,Generative Prior-guided UNsupervised Image-to-image Translation (GP-UNIT),利用预训练的类条件生成对抗网络 (GANs) 的生成先验来跨越不同领域学习丰富的内容对应关系,并且我们还提出了一种新的粗粒度到细粒度的策略,通过在抽象的语义层面上捕捉一个强大的粗级内容表示来连接对象,进而为更准确的多层级内容对应学习适应性的细粒度内容特征。实验表明我们提出的方法优越性强,可适用于不同的领域和更挑战的任务。
Apr, 2022