Nov, 2020

通过可微分掩码和共同注意力蒸馏学习图像翻译的高效GAN

TL;DR本研究提出了一种新颖的GAN压缩方法DMAD,通过使用可微分的掩模和协同注意力熔炼来搜索轻量级发生器体系结构,同时从预训练模型的生成器和判别器中提取有用的注意力图,成功稳定轻量级模型的对抗训练,而在保持可比余白性能的前提下,DMAD能够将CycleGAN的MACs降低13倍,Pix2Pix的MACs降低4倍。