Jan, 2023
ACQ: 通过关注力校正来提高生成式无数据量化
ACQ: Improving Generative Data-free Quantization Via Attention Correction
Jixing Li, Xiaozhou Guo, Benzhe Dai, Guoliang Gong, Min Jin...
TL;DR该论文提出了 ACQ 方法,通过注意力中心位置条件发生器和对手损失等技术,解决了数据合成过程中 attention 分布不均和同一类别合成样本之间注意力过于相似的问题,以提升量化算法的性能。在对 Resnet18 和 Resnet50 进行 4 位量化时,ACQ 方法分别实现了 67.55% 和 72.23% 的准确率。