Nov, 2023
在FPGA上使用低精度Minifloats和整数进行后训练量化
Post-Training Quantization with Low-precision Minifloats and Integers on
FPGAs
Shivam Aggarwal, Alessandro Pappalardo, Hans Jakob Damsgaard, Giuseppe Franco, Thomas B. Preußer...
TL;DR在这项研究中,我们通过对模型权重和激活函数使用3至8位的浮点数和整数量化方案,比较了浮点数量化和整数量化的适用性,验证了低精度minifloats在一系列精度-准确度权衡中相对于整数量化的有效性,并通过FPGA型号评估结果,表明整数量化通常是优选选择。