HiMTM: 面向长期预测的分层多尺度遮蔽时间序列建模
使用多尺度 Transformer 的多变量时间序列预测中,引入了不变量嵌入技术用于捕捉短期时间依赖并将数据投射到高维空间,同时保留时间步和变量维度。进一步,提出了一种新颖的 Multi-scale Transformer 金字塔网络 (MTPNet), 用于有效地捕捉多个不受约束尺度上的时间依赖。在九个基准数据集上的广泛实验证明,提出的 MTPNet 优于最新的先进方法。
Aug, 2023
该论文提出了一种新的基于 Masked Autoencoders (MAE) 的自监督预训练方法称为 MTSMAE,利用补丁嵌入的方法处理多元时间序列,实验证明,该方法的性能显著优于目前最好的方法。
Oct, 2022
提出了一种名为 FormerTime 的模型,结合特征金字塔和 Transformers 模型,解决了时间序列分类中长期依赖性建模和计算效率的问题,并在 10 个 UEA 存档数据集上获得了比竞争基线更好的分类性能。
Feb, 2023
该研究提出了一种基于空间 - 时间蒙面自编码器(STMAE)的多元时间序列(MTS)预测框架,利用蒙面自编码器来增强空间 - 时间基线模型的性能,并通过在多个 MTS 基准上进行广泛实验来证明其在提高 MTS 预测能力方面的潜力。
Sep, 2023
提出了一种多分辨率时间序列变压器(MTST)框架,采用了多支架构来同时建模不同分辨率的多样化时间模式,通过相对位置编码提取不同尺度上的周期成分,与现有的时间序列变压器相比,在几个真实世界数据集上进行了广泛实验,证明了 MTST 在与最先进的预测技术的比较中的有效性。
Nov, 2023
通过模仿人脑记忆层次结构,我们提出了分层记忆 Transformer(HMT)框架,以提高模型的长上下文处理能力,并通过在限定上下文和长上下文模型上的评估验证了其有效性。
May, 2024
使用多尺度超图转换器(MSHyper)框架,提出了一种更全面的模式交互建模方法,通过引入多尺度超图和超边图来建模高阶模式交互,同时引入三阶段消息传递机制来聚合模式信息和学习不同尺度时间模式之间的交互强度。实验证明,MSHyper 在五个真实世界数据集上取得了最先进的性能,相对于最佳基线方法,在均方误差和平均绝对误差分别平均减少了 8.73% 和 7.15% 的预测误差。
Jan, 2024
提出了一种名为 GPHT 的新型生成预训练分层变压器架构,通过引入高级网络结构和自监督预训练策略来提高时间序列预测的准确性,并在充足的实验验证中证明其超越了传统预训练模型和监督模型,在传统长期预测任务中取得了良好的效果。
Feb, 2024
本文提出了一种多尺度递归神经网络,称为分层多尺度递归神经网络,通过使用新的更新机制,在不使用显式边界信息的情况下捕获序列中的潜在分层结构,从而解决递归神经网络中的层次和时间表示问题,并在字符级别语言建模和手写序列建模上进行评估。
Sep, 2016