带有辅助判别器的条件 GANs
本文介绍了一种新的条件生成模型 ——TAC-GAN,该模型用新的辅助分类器可以有效地增加生成数据的多样性,实验证明该模型在真实数据集上可以显著提高类别条件的图像生成的多样性。
Jul, 2019
提出了一种新的深度条件生成器的训练框架,该框架通过将分类器与辨别器并联并通过生成器网络反向传播分类误差来训练一个深度条件生成器,用于从特定分布中提供标记的对抗样本,适用于任何生成对抗网络实现的变体,并且相比于类似的方法,产生了更好的结果。
May, 2018
本论文提出了一个双重投影生成对抗网络 (P2GAN) 模型,学习在数据匹配和标签匹配之间平衡的方法,并通过改善条件生成式对抗网络 (cGAN) 模型中的配对方法解决了分类困难的问题,实验结果表明其在多个真实数据集上具有良好的效果。
Aug, 2021
提出了分类器后验 GAN(CP-GAN),它通过将分类器的后验融入生成器输入并优化生成器来实现,以实现捕捉类别之间的关系并有选择地生成图像。
Nov, 2018
本研究提出了两种方法来改进使用 ACGAN 的 cGAN 生成的问题,一是将输入向量投影到单位超球体上以避免分类器中的梯度爆炸,二是提出了数据 - 数据交叉熵损失以利用分类标签数据中的关系信息,基于这个改进后的模型 ReACGAN 在 CIFAR10,Tiny-ImageNet,CUB200 和 ImageNet 数据集上取得了最先进的生成结果。
Nov, 2021
本文介绍了一种新颖的生成模型 —— 条件生成对抗网络,可以通过给生成器和判别器同时提供我们希望对条件进行的数据 y 来构建。本文展示了这个模型可以根据类别标签生成 MNIST 数字,并提供了一个多模态的模型应用示例,演示了如何生成不属于训练标签的描述性标签。
Nov, 2014
本研究提出了一种无偏的辅助生成对抗网络 (UAC-GAN),采用 Mutual Information Neural Estimator (MINE) 评估生成数据分布与标签之间的互信息,并基于投影的统计网络结构进一步提高了性能,在三个数据集上展示出比 AC-GAN 和 TAC-GAN 更好的表现。
Jun, 2020
通过引入辅助分类器生成对抗网络(ACGAN)到图神经网络解释领域,我们提出了一种新的图神经网络解释器,名为 ACGAN-GNNExplainer。我们的方法利用生成器为原始输入图生成解释,并结合鉴别器监督生成过程,从而确保解释的准确性和可靠度。实验评估表明,与其他现有的图神经网络解释方法相比,我们的方法在合成和真实世界图数据集上表现更优秀。
Sep, 2023
提出了一种新的 GaN 方法 DuDGAN,通过采用双扩散噪声注入方法来实现类别有条件的图像生成。通过三个网络的联合训练,并对现有方法进行比较,实验结果表明,在性能方面,新方法优于现有条件 GAN 模型。
May, 2023