内容感知 GAN 压缩
本研究基于生成对抗网络构建了一个图像压缩系统,其中包括编码器、解码器/生成器和多尺度鉴别器,并使用全生成式学习压缩目标。模型可合成存储受限的细节,实现在比之前方法失败且出现严重伪影的比特率下,较视觉上令人满意的结果。此外,如果有原始图像的语义标签映射可用,则本方法可以从标签映射中合成出解码后图像的不重要区域,例如街道和树,并相应地减少存储成本。一个用户研究证实,即使使用两倍以上的比特,低比特率下我们的方法都优于现有技术。
Apr, 2018
本研究提出了使用知识蒸馏技术压缩生成对抗网络 (GANs) 参数的方法,使得在固定参数预算内,压缩后的 GANs 可以产生比标准训练方法更高质量的图像。我们观察到 GANs 的压缩有其定量的极限,并且过度参数化的 GANs 优化问题对交替梯度下降提供了高效的训练,这表明使用我们的方法可以获得高质量的生成模型与较少的参数。
Feb, 2019
使用改进的模型结构和训练方法,对StyleGAN生成器的规范化、进化成长和正则化进行了重新设计,并引入了路径长度正则化器,以改善图像质量和生成器的可逆属性。通过可视化生成器对其输出分辨率的使用情况,识别容量问题并进行大规模模型的训练,使得该模型在无条件图像建模领域中的分布质量和感知图像质量均达到了最高水平。
Dec, 2019
该研究提出了一个名为 GAN Slimming 的统一优化框架,将多种压缩方法与 GAN 最小二乘目标组合在一起,相比现有选项在压缩图像转换 GAN 方面表现优异,其中包括模型蒸馏,通道修剪和量化等几种主流压缩技术。
Aug, 2020
提出了一种基于黑盒知识蒸馏的GAN模型压缩方法,将BigGAN作为教师网络,用较少的参数训练学生网络以模拟其功能,有效地缩小模型规模并在图像生成方面取得了有竞争力的表现。
Sep, 2020
本文提出了一种新颖的在线多粒度蒸馏(OMGD)方案,该方案可用于生成低计算需求的轻量级GAN,从而实现在资源受限设备上进行实时图像转换,并显示OMGD在四个基准数据集上的实验结果。
Aug, 2021
这篇论文提出了一种基于输出一致性和潜在空间的语义关系的潜在方向的蒸馏方法,以解决StyleGAN的蒸馏问题,该方法在蒸馏StyleGAN2和StyleGAN3方面的效果显著优于现有的GAN蒸馏方法。
Aug, 2022
GAN压缩方法从新的角度出发,通过在生成样本周围的局部邻域中保持原始模型的密度结构,提供了一种新的剪枝目标来规范剪枝模型,同时开发了一种协同剪枝方案,有效地在剪枝过程中保持生成器和判别器之间的平衡,从而展示出更稳定的剪枝动态。
Dec, 2023
本文提出了两种新方法:DiME和NICKEL,用于在资源受限环境中压缩生成对抗网络(GANs),这些方法能够有效地减少GANs的计算需求,并在压缩率极高的情况下仍保持生成质量。
May, 2024