BriefGPT.xyz
Ask
alpha
关键词
gelu activation
搜索结果 - 1
AAAI
通过移除 GELU 激活函数加速整数 SWIN Transformer 的推断
通过移除 SWIN Transformer 中的 GELU 激活,并用 ReLU 激活代替,我们使用迭代式知识蒸馏方法,在保持准确度下降低于 0.5% 的同时,至少提高了 11% 的量化 SWIN Transformer 的推理延迟。
PDF
5 months ago
Prev
Next