本文提出了一个使用无成对训练数据和单个网络同时训练不同域的多个数据集来学习生成多样化输出的统一框架,并研究了如何更好地提取域监督信息以学习更好的分离表征和实现更好的图像翻译的方法。实验表明,所提出的方法优于或与最先进的方法相当。
Nov, 2019
本研究提出了一种多模态无监督图像到图像的翻译框架 (MUNIT),该框架可以将图像表示分解为内容代码和风格代码,从而能够生成来自给定源域图像的多样性输出,并能够通过提供示例样式图像来控制翻译输出的风格。该框架在对比最先进的方法的基础上,通过大量实验证明了其优势。
Apr, 2018
本研究提出了一种基于编码 - 解码框架和有条件对抗性训练的统一模型,用于实现多模态和多域图像翻译任务。实验结果表明,该方法优于现有的方法。
Sep, 2019
本文介绍了一种无监督图像转换框架,该框架最大化了一个特定域的变分信息界,并学习了这两个域的目标域不变表示。
Nov, 2018
本文介绍了一种基于共享潜在空间假设和 Coupled GANs 的无监督的图像到图像翻译框架,并在多个挑战性的无监督图像翻译任务中取得了高质量的翻译结果,同时也应用于域自适应并实现了最先进的基准数据集性能。
Mar, 2017
提出了一个基于类别感知的记忆网络的无监督框架,可以针对局部风格差异进行实例级图像转换,而不是对整张图像应用全局风格。实验结果表明,该模型在实例级图像转换方面的性能优于最近的方法,并实现了最新的成果。
Apr, 2021
介绍了一种基于深度卷积神经网络以及条件生成式对抗网络的通用方法,通过非监督学习来解决图像转换问题,实现了不同域之间的图像转换,并且在多样性方面表现出了很好的通用性。
Jan, 2017
使用多模态语言 - 视觉架构的新颖标题匹配方法能够在跨域图像检索中实现最先进的性能表现,尤其在与人工智能生成的图像一起进行测试时。
Mar, 2024
本研究提出使用领域特定映射来重新映射共享内容空间中的潜在特征到特定内容空间,以提高图像的编码质量和风格传递的效果。实验证明,与以往的图像风格转换方法相比,所提出的方法在需要图像间语义对应的复杂场景中表现得更好。
Aug, 2020
本研究提出了一种新的框架,Generative Prior-guided UNsupervised Image-to-image Translation (GP-UNIT),利用预训练的类条件生成对抗网络 (GANs) 的生成先验来跨越不同领域学习丰富的内容对应关系,并且我们还提出了一种新的粗粒度到细粒度的策略,通过在抽象的语义层面上捕捉一个强大的粗级内容表示来连接对象,进而为更准确的多层级内容对应学习适应性的细粒度内容特征。实验表明我们提出的方法优越性强,可适用于不同的领域和更挑战的任务。
Apr, 2022