GAN 转移:从有限数据生成图像
研究如何转移使用 GAN 训练的一个图像领域到一个新的领域,只需一个目标图像;通过使用属性适配器和属性分类器的轻量级模块,对生成器和鉴别器进行改进,从而提高合成质量和多样性,并在训练过程中约束生成领域的多样性,不仅在各种设置下带来了具有吸引力的结果,而且能够在几分钟内提供稳健的收敛。
Nov, 2021
通过挖掘预训练 GAN 中与目标域最有益的知识并利用挖掘器网络,将 GAN 采样导向合适的潜空间区域,MineGAN 方法有效地将知识迁移到目标图像较少的域,避免其他方法中出现的路径问题和缺乏灵活性。
Dec, 2019
本文提出了一种基于生成对抗网络的方法,通过在像素空间中学习一种转换方法,将源域图像适应为与目标域相同的样子,以解决渲染图像训练模型泛化性不强的问题。该方法不仅可以生成逼真的样本,而且在许多无监督域适应场景中均优于现有技术,并证明了适应过程对于训练期间未被观察到的物体类别的泛化性。
Dec, 2016
本研究利用预训练的大规模 GAN 模型在有限数据情境下实现了对感知明显目标领域的图像生成,提出了自适应滤波器调制(AdaFM)的方法,证明了此技术在限制数据生成方面的有效性。
Feb, 2020
本论文提出一种新颖的框架,通过使用切片 Wasserstein 距离,固定样式,并引入辅助网络来解决风格和实体转移的广义单次适应任务,并使用变异拉普拉斯正则化来实现跨域对应关系,成功地在各种场景中展示了我们方法的有效性。
Sep, 2022
本文通过研究发现,针对新领域的迁移学习中,对于只有有限数据的情况下,通过对抗训练的模型相对于非对抗训练的模型具有更好的迁移性能。同时,对抗训练可以使学习到的表示偏向于保留形状而不是纹理,这影响了源模型的可迁移性,并且使用影响函数的方法发现迁移的对抗训练模型包含更多的人类可识别的语义信息,这至少部分解释了为什么对抗训练模型更实用。
Jul, 2020
本研究提出了一种使用生成对抗网络,在学习的联合特征空间中利用无监督数据来使源分布和目标分布更接近的方法,并在不同难度的实验环境中表现出卓越的性能,展示了我们方法的强大和广泛性。
Apr, 2017
本研究提出了一种对称映射的生成对抗网络用于不同领域的图像之间进行双向的图像变换,并结合目标自我标记和新的一致性分类损失来优化生成器的输出,实验表明该方法能超越前人在四个基准数据集中无监督领域适应方面的最新研究进展。
May, 2017