TransGaGa:几何感知的无监督图像到图像翻译
本文介绍了一种基于共享潜在空间假设和 Coupled GANs 的无监督的图像到图像翻译框架,并在多个挑战性的无监督图像翻译任务中取得了高质量的翻译结果,同时也应用于域自适应并实现了最先进的基准数据集性能。
Mar, 2017
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
本研究提出了一种新的框架,Generative Prior-guided UNsupervised Image-to-image Translation (GP-UNIT),利用预训练的类条件生成对抗网络 (GANs) 的生成先验来跨越不同领域学习丰富的内容对应关系,并且我们还提出了一种新的粗粒度到细粒度的策略,通过在抽象的语义层面上捕捉一个强大的粗级内容表示来连接对象,进而为更准确的多层级内容对应学习适应性的细粒度内容特征。实验表明我们提出的方法优越性强,可适用于不同的领域和更挑战的任务。
Apr, 2022
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
该论文提出了一种利用 Deep Attention GAN(DA-GAN)进行实例级图像翻译的新框架,可以在高度结构化的潜空间中将来自两个集合的样本进行转换,实例级的对应关系可以通过在学习到的实例对上进行注意力来发现,该方法在应用方面表现出了很好的效果。
Feb, 2018
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
本文提出了一种创新的框架,利用两个分支的自编码器来学习内容和风格分离的表征,并通过多个损失约束辅助无监督学习,最终生成清晰、高质量的 256*256 分辨率的图片。
May, 2019
介绍了一种基于 GAN 的全新图像到图像翻译方法,其中使用同层网络的潜在空间来保留图像内变换,不再需要约束生成器的循环一致性限制,实现了对高级形状和语境等更复杂领域的转换。
Feb, 2019
本文提出了一个使用无成对训练数据和单个网络同时训练不同域的多个数据集来学习生成多样化输出的统一框架,并研究了如何更好地提取域监督信息以学习更好的分离表征和实现更好的图像翻译的方法。实验表明,所提出的方法优于或与最先进的方法相当。
Nov, 2019