可裁剪生成对抗网络
提出了一种基于黑盒知识蒸馏的 GAN 模型压缩方法,将 BigGAN 作为教师网络,用较少的参数训练学生网络以模拟其功能,有效地缩小模型规模并在图像生成方面取得了有竞争力的表现。
Sep, 2020
通过引入一种简单的方法,使真实数据分布经过一个‘透镜’传达给辨别器,让生成器逐步揭示出更多细节特征,改善了 GAN 训练的质量、稳定性和收敛速度,对各种 GAN 架构如 DCGAN、LSGAN、WGAN-GP 都可行。
Feb, 2018
该研究提出了一个名为 GAN Slimming 的统一优化框架,将多种压缩方法与 GAN 最小二乘目标组合在一起,相比现有选项在压缩图像转换 GAN 方面表现优异,其中包括模型蒸馏,通道修剪和量化等几种主流压缩技术。
Aug, 2020
提出一种基于知识蒸馏和对抗学习的方法,通过设计更加轻量化的学生生成器和判别器,来实现在移动设备上学习图像生成模型的目标,并在基准数据集上取得了较强的性能表现。
Mar, 2020
通过渐进增加模型层数的方法,生成对抗网络在训练中实现速度和稳定性的提升,并取得了空前的图像质量和变异性,同时提出了新的 GAN 结果评估指标,取得实验成功。(keywords 中包含:生成对抗网络、逐步增长、图像质量、Inception 分数、实现细节等)
Oct, 2017
本文通过分析实际情景下 GAN 的泛化能力,证明了原始 GAN 的损失函数训练得到的鉴别器的泛化能力较差,并提出了一种零中心梯度惩罚策略以改善鉴别器的泛化能力,并保证 GAN 的收敛和泛化。通过在合成和大规模数据集上的实验,验证了理论分析的正确性。
Feb, 2019
本文研究了如何在仿射神经网络中量化生成对抗神经网络并提出了一种基于 EM 算法的 QGAN 方法方法,同时还提出了一种多精度算法,可帮助找到量化 GAN 模型的最佳位数以及相应的结果质量。实验结果表明,QGAN 可将 GAN 量化为 1/2 比特表示,结果质量与原始模型相当。
Jan, 2019
这篇论文提出了一种简单而高效的方法来解决条件生成式对抗网络(cGAN)中的模式崩塌问题,它通过显式地规范化生成器以产生不同的输出来控制可变因素,从而在视觉质量和多样性之间实现平衡,这种方法在图像翻译、图像修补、未来预测等多个条件生成任务中取得了出色的效果。
Jan, 2019