Jul, 2022

I-ViT:整数量化优化视觉 Transformer 推理

TL;DR本文提出 I-ViT 作为 Vision Transformers 的整数量化方案,在不使用浮点算数的情况下,通过整数算术和位移来完成计算图的整个计算过程,并使用 Shiftmax 和 ShiftGELU 等方法来近似非线性组件,以减少模型复杂性并提高在边缘设备上的有效性,实验结果表明整数量化达到与 FP 基线相当(甚至略高)的准确率,并且使用 TVM 在 GPU 的整数算术单元上实现了 3.72-4.11 倍的推断加速。