Jul, 2022
I-ViT:整数量化优化视觉Transformer推理
I-ViT: Integer-only Quantization for Efficient Vision Transformer
Inference
TL;DR本文提出I-ViT作为Vision Transformers的整数量化方案,在不使用浮点算数的情况下,通过整数算术和位移来完成计算图的整个计算过程,并使用Shiftmax和ShiftGELU等方法来近似非线性组件,以减少模型复杂性并提高在边缘设备上的有效性,实验结果表明整数量化达到与FP基线相当(甚至略高)的准确率,并且使用TVM在GPU的整数算术单元上实现了3.72-4.11倍的推断加速。