Dec, 2023

Dozerformer: 序列自适应稀疏Transformer用于多变量时间序列预测

TL;DR基于Dozer Attention机制的Dozerformer框架在多元时间序列(MTS)预测任务中取得了出色的性能,该机制通过解决注意力机制中的两个关键限制,即二次时间复杂度和基于整个历史序列生成未来值的问题,来捕捉MTS数据的局部性、季节性和全局时间依赖性。