MatchingGAN:基于匹配的少样本图像生成
本文提出了一种融合填充生成对抗网络(F2GAN)来解决少样本图像生成问题,该方法通过图像融合和填充细节,并通过鉴别器中的多模式寻求损失以及插值回归损失来保证生成图像的多样性。实验结果表明,该方法在 5 个数据集上的表现优异。
Aug, 2020
该研究提出 Few-Shot GAN (FSGAN),通过组件分析和学习预训练模型的奇异值,而固定奇异向量,以在少于 100 张图像的情况下进行 GAN 适应。在 5-100 张图像的挑战性少样本设置中,与现有的 GAN 适应方法相比,FSGAN 实现了显著的视觉质量提高。
Oct, 2020
该研究提出了一种通过敌对训练生成逼真文本的框架,采用了 LSTM 作为生成器,卷积网络作为判别器,并使用核距离度量匹配真实和合成句子的高维潜在特征分布,从而缓解了模式崩溃问题,并在定量评估方面表现出优越性,证明了该模型可以生成逼真的句子。
Jun, 2017
该论文提出了一种基于 Delta GAN 的少样本图像生成方法,其中的重构子网络和生成子网络一起将输入图像变换为同类别的新图像,并配合对抗性 delta 匹配损失函数使其更加多样化。此方法在五种不同的少样本图像数据集上进行了实验验证其有效性。
Sep, 2020
该论文提出了一种基于标签空间的图像增强,新颖的自我监督学习方法,用于半监督条件生成网络,通过将少量有标签的示例中的标签赋给大量无标签的示例,构成训练集并优化辅助匹配损失,实现了对 CelebA 和 RaFD 两项挑战性基准测试的有效性评估,表明其优于竞争基线和现有方法。
Jun, 2020
本文提出使用选择性对焦学习的训练方法来解决条件生成对抗网络(cGANs)的训练问题,针对每个小批量的数据选择性地应用条件匹配和联合匹配,从而在 ImageNet、CIFAR-10 和 CIFAR-100 数据集上提高了 cGAN 的性能(FID 最高可达 35.18%),同时保持了多样性。
Jul, 2021
我们开发了一种基于 “匹配网络” 的新生成模型 Generative Matching Network,该模型通过在额外输入数据集的条件下学习新的概念,无需使用广泛推理过程进行训练或适应,且在可用的更多附加数据的情况下显着提高了预测性能,优于现有的最先进条件生成模型。
Dec, 2016
该研究提出使用生成对抗网络(GAN)来 “合成” 零样本类别的 CNN(卷积神经网络)特征,从而应对通用零样本学习任务中已有的数据不平衡问题。实验结果表明,该方法在多个数据集上的表现均显著优于现有方法。
Dec, 2017
本论文提出了一个双重投影生成对抗网络 (P2GAN) 模型,学习在数据匹配和标签匹配之间平衡的方法,并通过改善条件生成式对抗网络 (cGAN) 模型中的配对方法解决了分类困难的问题,实验结果表明其在多个真实数据集上具有良好的效果。
Aug, 2021
利用递归神经网络和深度卷积生成对抗网络构建了新的深度架构和 GAN 公式,将字符转换为像素,有效地将文本和图像建模相结合,从而实现了从详细文本描述中生成花和鸟的逼真图像的能力。
May, 2016