自监督 GAN 压缩
使用对抗生成网络(GANs)代替稀疏约束来构建结构,针对重建任务进行任务感知型训练,并证明可以不使用(或少量使用)非压缩数据训练模型,最后展示 GAN 的潜空间携带有判别信息,并可进一步规范化以生成用于一般推断任务的输入特征,通过对多种重构和分类问题的实验验证方法的有效性。
Feb, 2018
本研究提出了使用知识蒸馏技术压缩生成对抗网络 (GANs) 参数的方法,使得在固定参数预算内,压缩后的 GANs 可以产生比标准训练方法更高质量的图像。我们观察到 GANs 的压缩有其定量的极限,并且过度参数化的 GANs 优化问题对交替梯度下降提供了高效的训练,这表明使用我们的方法可以获得高质量的生成模型与较少的参数。
Feb, 2019
该研究提出了一个名为 GAN Slimming 的统一优化框架,将多种压缩方法与 GAN 最小二乘目标组合在一起,相比现有选项在压缩图像转换 GAN 方面表现优异,其中包括模型蒸馏,通道修剪和量化等几种主流压缩技术。
Aug, 2020
GAN 压缩方法从新的角度出发,通过在生成样本周围的局部邻域中保持原始模型的密度结构,提供了一种新的剪枝目标来规范剪枝模型,同时开发了一种协同剪枝方案,有效地在剪枝过程中保持生成器和判别器之间的平衡,从而展示出更稳定的剪枝动态。
Dec, 2023
该研究提出了用于无条件 GAN 压缩的一种新方法。 该方法结合了通道修剪,知识蒸馏和内容感知,使模型在保持图像质量的同时具有更高的压缩率,可应用于各种图像生成和编辑任务。
Apr, 2021
本研究基于生成对抗网络构建了一个图像压缩系统,其中包括编码器、解码器 / 生成器和多尺度鉴别器,并使用全生成式学习压缩目标。模型可合成存储受限的细节,实现在比之前方法失败且出现严重伪影的比特率下,较视觉上令人满意的结果。此外,如果有原始图像的语义标签映射可用,则本方法可以从标签映射中合成出解码后图像的不重要区域,例如街道和树,并相应地减少存储成本。一个用户研究证实,即使使用两倍以上的比特,低比特率下我们的方法都优于现有技术。
Apr, 2018
本文提出了 AutoGAN-Distiller (AGD) 框架,通过将 AutoML 方法应用于 GAN 压缩中,实现了对各种 GAN 模型的自动压缩,采用 knowledge distillation 指导压缩,且在压缩后的图像翻译和超分辨率任务中表现出更轻量级但更具竞争力的效果。
Jun, 2020
本文研究了压缩深度生成对抗网络中的可训练匹配子网络的存在性和质量,并通过广泛的实验结果证明,这些找到的子网络在图像生成和图像转换上显著优于先前的最先进 GAN 压缩方法。
May, 2021
通过引入教师网络,在搜索空间中查找高效的网络架构并进行知识蒸馏,该方法可以在更小的计算成本下实现类似于原始模型的图像质量,从而可能解决生成对抗网络的计算成本高的问题。
Mar, 2021