Jan, 2024

LMUFormer:低复杂性但功能强大的脉冲模型与Legendre记忆单元

TL;DR通过将转换器模型重新构建为RNN模块,我们提出了LMUFormer,它在保留顺序处理能力的同时,能够将性能推向转换器模型,并通过引入状态来减少计算复杂性。在多个序列数据集上评估后,我们的LMUFormer表现可与SOTA基于转换器的模型相媲美,并减少了53倍的参数和65倍的FLOPs。此外,我们的模型在实时数据处理方面表现出色,能够减少32.03%的序列长度,而性能几乎不受影响。