耦合生成对抗网络
该研究使用增量算法AdaGAN训练Generative Adversarial Networks(GAN)来解决GAN模型中出现的missing modes问题,并且证明了当每一步是最优的时候,这种增量方法可以在有限步数内收敛到真实分布,否则以指数速度收敛。
Jan, 2017
本研究提出了一种对称映射的生成对抗网络用于不同领域的图像之间进行双向的图像变换,并结合目标自我标记和新的一致性分类损失来优化生成器的输出,实验表明该方法能超越前人在四个基准数据集中无监督领域适应方面的最新研究进展。
May, 2017
本论文提出了一种基于条件GAN的方法,可以在缺少配对样本的情况下成功地对齐跨域图像,并且还提出了一种利用多个信息条件(如域信息和标签信息)进行标签传播的模型,并给出了一个用于学习该模型的两步交替训练算法。
Jul, 2017
提出了一种名为StarGAN的神经网络模型,能够在一个模型中处理不同类型的图片域,解决了目前单个模型无法扩展处理二个以上图片域的问题,并且从实验结果上证明了该模型相比之前的模型具有更高的图片翻译质量以及更强的灵活性。
Nov, 2017
本文介绍了一种名为ModularGAN的多领域图像生成和图像到图像转换的方法,利用可复用和可组合的不同功能模块(例如编码、解码、变换)同时训练,并在测试时根据具体的图像转换任务组合这些模块,以显著提高生成(或转换为)任何所需领域图像的灵活性,并在多领域面部属性转移方面胜过现有方法。
Apr, 2018
开发了一种新的生成对抗网络,用于联合分布匹配,并能够从多个随机变量中学习联合分布,同时学习采样每个单独领域的边缘分布和领域间的条件分布,该框架由多个生成器和一个基于Softmax的评论家组成,并通过对抗性学习进行联合训练。
Jun, 2018
该文介绍了一种基于生成对抗网络 (GANs) 的双生成器生成对抗网络 (G$^2$GAN) 方法,可以通过一种单一模型实现多个领域的非配对图像转换,并研究了不同的优化损失,以提高稳定性。该方法在6个公共数据集上进行广泛实验,证明了其相对于现有的GAN模型在模型容量和图片生成性能上具有卓越的优势。
Jan, 2019
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
本文中,我们提出了带条件的联合生成对抗网络(CoCoGAN)来解决零样本域自适应(ZSDA)问题,在没有目标域数据的情况下训练CoCoGAN以完成领域自适应。通过在相关任务(RT)和不相关任务(IRT)中采用源域数据和双域数据进行训练,CoCoGAN能够捕获两个不同任务的双域样本的联合分布,从而使其在图像分类方面优于现有的技术水平。
Sep, 2020