Sep, 2022

EcoFormer:线性复杂度的节能注意力

TL;DR提出了一种新的 Transformer 模型的压缩方法 EcoFormer,通过核化哈希将查询和键映射为低维二进制码,并在自监督学习的方式下匹配注意力图中提取的相似关系,可以实现 Attention 机制的线性复杂度并在芯片能耗上节省很多资源。