Sep, 2023

SPION: 基于卷积漫延的Transformer分层稀疏训练

TL;DR我们提出了一种新颖的Transformer稀疏化方案,通过整合卷积滤波器和泛洪填充方法,高效捕捉自注意操作中的逐层稀疏模式,从而在Transformer的训练过程中降低计算复杂度和内存占用,实现了超过现有稀疏Transformer模型的3.08倍加速,并具有更好的评估质量。