Dec, 2023
硬件感知的DNN压缩:通过多样化剪枝和混合精度量化
Hardware-Aware DNN Compression via Diverse Pruning and Mixed-Precision
Quantization
Konstantinos Balaskas, Andreas Karatzas, Christos Sad, Kostas Siozios, Iraklis Anagnostopoulos...
TL;DR通过联合采用修剪和量化,利用强化学习探索与低能耗相关的设计空间及其精度损失,我们提出了一种自动压缩深度神经网络的硬件感知框架,能够在嵌入式深度神经网络加速器上实现能耗最小化。实验结果表明,相比现有方法,我们的框架平均能耗降低39%,平均精度损失为1.7%。