May, 2024

自注意力是否对时间序列预测有效?

TL;DR我们介绍了一个新的架构,交叉注意力时间序列变换器(CATS),它通过消除自注意力并利用交叉注意力机制来重新思考传统 Transformer 框架,不仅提高长期预测精度,还减少参数和内存使用。大量对各种数据集进行的实验表明,我们的模型在最小均方误差和参数使用方面实现了卓越的性能。