LANIT:基于语言的无标记图像翻译
本研究提出了一种多模态无监督图像到图像的翻译框架(MUNIT),该框架可以将图像表示分解为内容代码和风格代码,从而能够生成来自给定源域图像的多样性输出,并能够通过提供示例样式图像来控制翻译输出的风格。该框架在对比最先进的方法的基础上,通过大量实验证明了其优势。
Apr, 2018
本文提出了一种新的通用的图像到图像转换模型,可以同时利用配对和未配对数据进行训练,相比于传统方法性能得到显著提升,此外,研究中首次考虑了混合配对和未配对数据的情况。
May, 2018
本篇文章介绍了 Exemplar Guided & Semantically Consistent Image-to-image Translation (EGSC-IT)网络,并用 feature masks 实现了语义上的一致性。实验结果验证,EGSC-IT 能够保持语义上的一致性,从而有效地将源图像转换为目标域中的多样性实例。
May, 2018
本文提出了一种联合框架,通过条件生成无数独特的图像,实现多样性和多映射图像到图像的翻译,使用称为领域嵌入的嵌入表示来表示领域和风格,并在连续的样式插值,连续标签插值和细粒度映射等不同场景下展示其有效性。
Dec, 2018
本文提出了一个使用无成对训练数据和单个网络同时训练不同域的多个数据集来学习生成多样化输出的统一框架,并研究了如何更好地提取域监督信息以学习更好的分离表征和实现更好的图像翻译的方法。实验表明,所提出的方法优于或与最先进的方法相当。
Nov, 2019
本文提出了一种针对图像翻译的无监督学习模型,TUNIT,该模型可以在没有成对数据或领域标签的情况下进行图像-图像翻译,同时在各种数据集上表现出可比甚至更好的性能。此外,该模型还可以轻松扩展到半监督学习。
Jun, 2020
提出了一种名为COCO-FUNIT的few-shot无监督图像翻译模型,通过引入样式嵌入和常数样式偏置模块依据输入图像和示例图像,有效解决图像翻译中的内容丢失问题。
Jul, 2020
提出了一种简单而通用的图像到图像翻译框架,利用归一化层和新提出的特征变换,实现了多模态图像合成并具备任意风格控制的能力,进行了与多个先进方法的比较,证明了其在感知质量和定量评估方面的有效性。
Jul, 2020
提出了一个基于类别感知的记忆网络的无监督框架,可以针对局部风格差异进行实例级图像转换,而不是对整张图像应用全局风格。实验结果表明,该模型在实例级图像转换方面的性能优于最近的方法,并实现了最新的成果。
Apr, 2021