本研究提出了使用知识蒸馏技术压缩生成对抗网络 (GANs) 参数的方法,使得在固定参数预算内,压缩后的 GANs 可以产生比标准训练方法更高质量的图像。我们观察到 GANs 的压缩有其定量的极限,并且过度参数化的 GANs 优化问题对交替梯度下降提供了高效的训练,这表明使用我们的方法可以获得高质量的生成模型与较少的参数。
Feb, 2019
该研究提出一种新的对抗蒸馏机制,用于在没有真实数据的情况下制作紧凑的学生模型,这种数据免费的方法在分类和语义分割中表现出与基于数据驱动的方法相当的性能甚至更好。
Dec, 2019
提出一种基于知识蒸馏和对抗学习的方法,通过设计更加轻量化的学生生成器和判别器,来实现在移动设备上学习图像生成模型的目标,并在基准数据集上取得了较强的性能表现。
Mar, 2020
该论文从知识分类、训练方案、教师-学生架构、蒸馏算法、性能比较和应用等方面全面调查了知识蒸馏。并简要回顾了知识蒸馏中的挑战,并探讨了未来的研究方向。
Jun, 2020
提出了一种基于黑盒知识蒸馏的GAN模型压缩方法,将BigGAN作为教师网络,用较少的参数训练学生网络以模拟其功能,有效地缩小模型规模并在图像生成方面取得了有竞争力的表现。
Sep, 2020
提出了一种从已有条件图像生成模型迁移知识,提高在新类上的生成效率的方法,该方法利用条件批标准化技术从旧类向新类传播知识,实验证明该方法优于现有的方法。
Feb, 2021
通过引入教师网络,在搜索空间中查找高效的网络架构并进行知识蒸馏,该方法可以在更小的计算成本下实现类似于原始模型的图像质量,从而可能解决生成对抗网络的计算成本高的问题。
Mar, 2021
本文主要探讨如何通过线性转换生成图像的特征向量来实现对生成对图像内容的语义控制,并提出了两种基于语义的图像编辑方法:语义条件采样和语义图像编辑。
Apr, 2021
本论文提出了一种基于离散小波变换的知识蒸馏方法,用于提高小型生成对抗网络在高频信息生成方面的性能,在保证性能无明显下降的情况下,可将模型体积缩小7.08倍、加速6.80倍,并研究了鉴别器和生成器之间的关系。
Mar, 2022
本文提出了一种新的数据集蒸馏方法,该方法在将大型数据集蒸馏为生成模型时考虑了全局结构和局部细节的平衡。
Apr, 2024