通过双重学习机制,该论文提出了一种新的双重生成对抗网络模型——DualGAN,可在缺乏标签数据的情况下,实现多种图像翻译任务,并取得了可观的性能提升。
Apr, 2017
本文介绍了一种利用多个输入域来实现图像翻译的方案,使用基于生成对抗网络的多模式生成器结构和一种新的损失项,潜在一致性损失,实现了比现有无监督图像到图像转换方法更好的转换效果。
Nov, 2017
本文介绍了一种名为ModularGAN的多领域图像生成和图像到图像转换的方法,利用可复用和可组合的不同功能模块(例如编码、解码、变换)同时训练,并在测试时根据具体的图像转换任务组合这些模块,以显著提高生成(或转换为)任何所需领域图像的灵活性,并在多领域面部属性转移方面胜过现有方法。
Apr, 2018
单个生成器的多领域图像翻译方法 SingleGAN,在多种无配对数据集上显示出明显的优势和普适性。
Oct, 2018
本文提出了一种基于显式域监督的非配对图像翻译框架DosGAN,该框架使用分类网络提取每个图像的域特定特征,并使用另一个编码器提取域无关的特征,二者结合生成目标域的图像。该方法在多个数据集上进行了实验,证明了其有效性,并且可以进行任何两个图像之间的有条件翻译,而以前的模型不能处理此任务。
Feb, 2019
介绍了一种基于GAN的全新图像到图像翻译方法,其中使用同层网络的潜在空间来保留图像内变换,不再需要约束生成器的循环一致性限制,实现了对高级形状和语境等更复杂领域的转换。
提出了单个框架StarGAN v2,用于解决图像到图像翻译模型中的多种领域转换问题,并在CelebA-HQ和新的动物面孔数据集(AFHQ)上进行了实验证明了其在视觉质量,多样性和可伸缩性方面的优越性。
Dec, 2019
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
本文提出了SwitchGAN来进行多领域人脸图像翻译。使用更自适应的辨别器结构和匹配的生成器来解决现有方法中存在的领域分布匹配的问题。引入基于特征切换的操作来进行特征选择和融合。实验结果表明,我们的模型在Morph、RaFD和CelebA数据库上均能取得比StarGAN、AttGAN和STGAN更好的翻译结果。此外,我们还引入了一种控制属性强度并提取内容信息的新功能。
Nov, 2021
通过引入Colorized MNIST数据集和Color-Recall评分,提出一种新的非对称框架以改进现有的深度生成模型在多对一图像翻译任务中的性能,应用于StarGAN V2,并在无监督和半监督设置下表现出更好的结果。
Feb, 2024