AAAIFeb, 2024

通过移除 GELU 激活函数加速整数 SWIN Transformer 的推断

TL;DR通过移除 SWIN Transformer 中的 GELU 激活,并用 ReLU 激活代替,我们使用迭代式知识蒸馏方法,在保持准确度下降低于 0.5% 的同时,至少提高了 11% 的量化 SWIN Transformer 的推理延迟。