任务特定对抗代价函数
本文提出了一种使用 Kullback-Leibler 项的方法来比较生成数据和真实数据的分布,以改进生成对抗网络在生成模型中的性能。
Jun, 2023
本文研究了在实际应用中,某些对抗变换的重要性可能比其他变换更高的情况下,如何衡量分类器在对抗干扰下的鲁棒性,并提出了一般性的目标函数,将 Wong 和 Kolter(2018)的鲁棒训练方法进行了改进。通过实验证明,所提出的方法可以显著降低成本敏感鲁棒错误,同时保持分类准确性。
Oct, 2018
本篇论文针对基于深度学习的文本和图像生成模型的目标函数进行了探讨,提出了替代 maximum likelihood 训练目标函数的方法,引入了一种广义的对抗训练方法。
Nov, 2015
我们提出了一种新颖的深层生成模型,Kolmogorov-Smirnov 生成对抗网络(KSGAN)。与现有方法不同,KSGAN 将学习过程规范为最小化 Kolmogorov-Smirnov(KS)距离,该距离被推广用于处理多变量分布。我们正式证明最小化 KS 距离会导致训练得到的近似分布与目标分布对齐。我们提出了一种高效的实现方法,并通过实验评估其有效性。结果表明,KSGAN 性能与现有对抗性方法相当,在训练过程中表现稳定,具有防止模式消失和崩溃的能力,并且对超参数设置变化具有容差性。此外,我们回顾了关于广义 KS 检验的文献,并讨论了 KSGAN 与现有对抗生成模型之间的关系。
Jun, 2024
本文提出了一种不依赖于传统极小 - 极大公式的生成式对抗方法理论,并展示了当存在强的辨别器时,通过每个功能性梯度步骤,可以学到一个好的生成器,使得真实数据和生成数据的分布的 KL 散度改善,直到收敛于零,并基于该理论,提出了一种新的稳定的生成式对抗方法,同时提供了从这个新的视角对原始 GAN 的理论洞见,最终,针对图像生成的实验展示了我们的新方法的有效性。
Jan, 2018
引入了一种统一的 α 参数化生成器损失函数,用于一种双目标生成对抗网络(GAN),其使用经典鉴别器损失函数,例如原始 GAN(VanillaGAN)系统中的损失函数。生成器损失函数基于对称类概率估计类型函数 L_α,得到的 GAN 系统称为 L_α-GAN。在最优鉴别器下,证明了生成器的优化问题包括最小化 Jensen-f_α- 分歧,这是 Jensen-Shannon 分歧的自然推广,其中 f_α 是用损失函数 L_α 表示的凸函数。还证明了这个 L_α-GAN 问题作为文献中一些 GAN 问题的特例,包括 VanillaGAN、最小二乘 GAN(LSGAN)、最小 k 阶 GAN(LkGAN)和最近引入的(αD,αG)-GAN(其中 αD=1)。最后,在三个数据集 MNIST、CIFAR-10 和 Stacked MNIST 上进行实验,以说明各种示例的 L_α-GAN 系统的性能。
Aug, 2023
本文研究了生成对抗网络在逼近目标分布时的两个基本问题:限制鉴别器家族对近似质量的影响和不同目标函数的收敛条件与分布收敛之间的关系。定义了对抗分歧的概念,证明了使用受限制的鉴别器家族具有矩匹配效应,并且对于严格对抗性分歧的目标函数,证明了目标函数上的收敛蕴含着弱收敛。
May, 2017
提出了一种简单的方法来评估生成对抗网络中生成的图像质量,通过定义与真实图像在鉴别器中的嵌入分布相关的高斯似然函数,并基于此定义两个简单的度量方式,从而得出一种适用于各种 GAN 的生成图像适应度的简单度量标准,CIFAR-10 上的实证结果证明了提出的度量和生成图像的质量之间的强相关性。
Jul, 2017