AlignGAN:使用有条件的生成对抗网络学习对齐跨域图像
本文提出了联合生成对抗网络(CoGAN)用于学习多域图像的联合分布。 与现有方法相比,CoGAN可以在不需要不同域中对应图像元组的情况下,仅通过来自边际分布的样本学习联合分布,并将其应用于许多联合分布学习任务,包括颜色和深度图像的联合分布以及具有不同属性的脸部图像的联合分布。 此外,对于域自适应和图像转换,也展示了其应用。
Jun, 2016
通过双重学习机制,该论文提出了一种新的双重生成对抗网络模型——DualGAN,可在缺乏标签数据的情况下,实现多种图像翻译任务,并取得了可观的性能提升。
Apr, 2017
本研究提出了一种对称映射的生成对抗网络用于不同领域的图像之间进行双向的图像变换,并结合目标自我标记和新的一致性分类损失来优化生成器的输出,实验表明该方法能超越前人在四个基准数据集中无监督领域适应方面的最新研究进展。
May, 2017
该论文提出了一种基于标签空间的图像增强,新颖的自我监督学习方法,用于半监督条件生成网络,通过将少量有标签的示例中的标签赋给大量无标签的示例,构成训练集并优化辅助匹配损失,实现了对CelebA和RaFD两项挑战性基准测试的有效性评估,表明其优于竞争基线和现有方法。
Jun, 2020
提出了一种无监督的图像翻译框架,使用一对编码器加上一对生成对抗网络来提取不同域之间的高级特征以生成逼真的多样化样本。该框架在许多图像转化任务上展示出与最先进技术相竞争的结果。
Aug, 2020
本文中,我们提出了带条件的联合生成对抗网络(CoCoGAN)来解决零样本域自适应(ZSDA)问题,在没有目标域数据的情况下训练CoCoGAN以完成领域自适应。通过在相关任务(RT)和不相关任务(IRT)中采用源域数据和双域数据进行训练,CoCoGAN能够捕获两个不同任务的双域样本的联合分布,从而使其在图像分类方面优于现有的技术水平。
Sep, 2020
本论文提出了一个双重投影生成对抗网络(P2GAN)模型,学习在数据匹配和标签匹配之间平衡的方法,并通过改善条件生成式对抗网络(cGAN)模型中的配对方法解决了分类困难的问题,实验结果表明其在多个真实数据集上具有良好的效果。
Aug, 2021
本文深入研究了对齐生成模型的性质和应用,找到了一系列特点,如转移学习,图像转换和跨域图像变形等。我们利用所发现的特点展示了这些应用,包括完全自动的跨域图像变形和零样本视觉任务,取得了令人瞩目的结果。
Oct, 2021
本论文提出了一种基于空间结构对少量数据进行对抗生成模型适配的方法,通过对源域和目标域的图像对进行跨域对齐,减轻目标生成模型过拟合和崩塌的问题,实验表明该方法在少样本学习中具有显著优势。
Mar, 2022
本论文提出了一种多样性生成对抗网络模型Polymorphic-GAN,该模型能够同时生成多个相关域中的图像,它具有学习所有域上共享特征和每个域的特征之间的映射关系,能够用于多个应用,比如图像分割传输、跨域图像编辑和低数据域的训练。此外,本文还应用Polymorphic-GAN模型进行了图像到图像的转换任务,实验表明在各种不同几何变化的域中,该模型的性能均大大优于先前的方法。
Jun, 2022