Apr, 2020

自适应取整的后训练量化:向上或向下?

TL;DR本文提出了AdaRound,它是一种更好的后训练量化权重舍入机制,能够适应数据和任务损失,不需要对网络进行微调,并且只使用少量无标签数据。