Jul, 2022

时间序列分类中注意力机制的反思

TL;DR本文提出了一种灵活的多头线性注意力(FMLA)方法,通过与可变形卷积块和在线知识蒸馏进行分层交互来提高局部感知能力。此外,我们还提出了一种简单但有效的掩码机制,以减少时间序列中的噪声影响并降低 FMLA 的冗余。通过多次以随机掩码层转发样本并聚合其输出来稳定此机制,并将其与 11 种已知算法进行比较,结果表明我们的算法在 top-1 准确性方面具有可比性,并以浮点运算每秒和参数数量方面将其与三种基于 Transformer 的模型进行比较,发现我们的算法在更低的复杂度下实现了更好的效率。