DRAformer:用于时间序列预测的差分重构注意力变换器
本研究提出一种名为 “SRformer” 的分段循环变压器模型,通过使用分段关注机制和循环关注机制结合来处理长度较长的序列,降低计算和内存成本,并应用于 T5 和 BART 转换器上进行摘要生成等任务,结果显示比分段变压器基线具有更高的性能表现。
May, 2023
测试和评估在时间序列数据上应用 Transformer 模型的有效性,通过调整超参数、预处理数据、应用降维或卷积编码等方式来解决异常检测、上下文感知和空间复杂性问题,同时探索修改现有解决方案以实现更高性能和学习广义知识的方法。
Aug, 2021
在医学背景下,基于时间序列的数据通常具有长程依赖并且在非均匀时间间隔下进行观察。为了解决这个问题,研究者们用基于神经 ODE 的模型取代了传统的基于序列的循环模型,来对不规则采样的数据进行建模,并使用基于 Transformer 的架构解决长程依赖的问题。尽管这两种方法都取得了成功,但是对于中等长度的输入序列而言,它们都需要非常高的计算代价。为了缓解这个问题,我们引入了 Rough Transformer,这是 Transformer 模型的一种变体,它能够对连续时间表示的输入序列进行操作,并且具有显著减少的计算代价,这对于处理医疗背景下的长程依赖是至关重要的。具体而言,我们提出了多视角签名注意力,它利用路径签名来增强原始注意力,并在输入数据中捕捉局部和全局依赖关系,同时对序列长度和采样频率的变化保持稳健性。我们发现,Rough Transformers 在合成和真实的时间序列任务中,始终优于其原始注意力对照组,并且只需要部分计算时间和存储资源,就能够获得基于神经 ODE 模型的好处。
Mar, 2024
我们的研究表明,利用全局标记和局部窗口构建的注意力图作为数据点的稳健核表示,可以提高时间序列的预测准确性,并且在不改变核心神经网络结构的情况下,我们的方法胜过了最先进的模型,将多变量时间序列预测的均方误差 (MSE) 降低了显著的 3.6%。它是一个通用的组件,可以轻松替代最近的基于分块的嵌入方案,提升基于 transformer 模型的性能。
Feb, 2024
本文提出了 R-Transformer 模型,结合了 RNN 和多头注意力机制的优点,同时避免了它们各自的缺点,能够在不使用位置嵌入的情况下有效捕捉序列中的本地结构和全局长期依赖关系。通过广泛的实验评估表明,在大多数任务中,R-Transformer 优于最先进的方法。
Jul, 2019
通过引入循环替代方案以解决 transformer 自注意机制中的两个局限,本文提出了一种能够以较低成本进行推理并有效利用长程依赖的 transformer 自注意机制替代方法,在强化学习问题中实现了性能的提升。
Oct, 2023
本论文提出了一种名为 Sparse Transformer (DRSformer) 的去雨神经网络,它可以自适应地保留最有用的自注意力值以更好地促进高质量图像重建,并发展了一种有效的混合尺度前馈网络来为图像去雨生成更好的特征。
Mar, 2023
提出了一种双阶段基于注意力机制的递归神经网络(DA-RNN)模型,该模型使用输入和时间注意力机制,能够更好地捕获时间序列的长期时间依赖关系和选择相关的驱动因素以进行预测。实验证明,DA-RNN 模型比时序预测中的现有模型更有效。
Apr, 2017
我们提出了一种关注的联邦变压器,用于时间序列股票预测,在保护参与企业的隐私的同时具备更好的性能。关于从雅虎金融网站获取的各种股票数据的实证结果显示了我们提出的方案在处理上述挑战和联邦学习中的数据异质性方面的优越性。
Jan, 2024