Nov, 2023

变量时间序列变压器中的关联注意力

TL;DR我们提出了一种新颖的相关注意力机制,能够高效地捕捉多元时间序列数据中不同特征之间的复杂相互关系,并能够与现有的基于 Transformer 的模型无缝集成,提高效率。在多种任务中,包括插补、异常检测和分类,相关注意力机制与先前的 Transformer 模型相结合,形成了更好的编码器架构,并且取得了先进的结果。