DLFormer:通过分布滞后嵌入增强多变量时间序列预测的可解释性
通过将时间序列分成按天分割的小块,重新进行逐块方式处理并设计时间建模Transformer-Dateformer,以提高Transformers模型的信息输入和输出并使模型能够全局分析时间序列,大幅提高了时间序列预测的准确性和半年的最大预测范围。
Jul, 2022
该论文提出了一种名为TimeTuner的新型可视化分析框架,用于帮助分析人员理解模型行为与时间序列表示的局部相关性、稳定性和粒度之间的关联,并通过反事实解释、多种协调视图和交互方式来改进自动特征学习的限制,展示了其在实际时间序列预测中的适用性。
Jul, 2023
通过开发一种名为Modality-aware Transformer的新型多模态变压器,我们旨在解决多模态时间序列预测的复杂挑战,并在金融数据集上进行了广泛实验,证明其优于现有方法,提供了一种新颖而实用的解决方案。
Oct, 2023
BasisFormer 是一种端到端时间序列预测架构,它利用可学习和可解释的基来获取基础。通过自适应的自监督学习获得基础,使用双向交叉注意力计算时间序列与基础之间的相似性系数,并根据相似性系数选择和整合未来视图中的基础,从而实现准确的未来预测。通过对六个数据集进行广泛实验,证明 BasisFormer 在单变量和多变量预测任务中分别超过先前的最先进方法 11.04% 和 15.78%。
Oct, 2023
基于Dozer Attention机制的Dozerformer框架在多元时间序列(MTS)预测任务中取得了出色的性能,该机制通过解决注意力机制中的两个关键限制,即二次时间复杂度和基于整个历史序列生成未来值的问题,来捕捉MTS数据的局部性、季节性和全局时间依赖性。
Dec, 2023
我们的研究表明,利用全局标记和局部窗口构建的注意力图作为数据点的稳健核表示,可以提高时间序列的预测准确性,并且在不改变核心神经网络结构的情况下,我们的方法胜过了最先进的模型,将多变量时间序列预测的均方误差(MSE)降低了显著的3.6%。它是一个通用的组件,可以轻松替代最近的基于分块的嵌入方案,提升基于transformer模型的性能。
Feb, 2024
通过引入可学习的分解策略和双重注意力模块,该研究论文在多元时间序列预测方面取得了显著进展,并且提出的分解策略可以插入其他方法,大大提升了性能,MSE误差降低从11.87%到48.56%。
Feb, 2024
使用外部信息增强内生变量的时间序列预测的新颖框架 TimeXer,利用Patch-wise自注意力和变量-wise交叉注意力,有效地将外生系列与内生时间补丁相互调和,并通过全局内生变量令牌有效地将外生系列引入内生补丁中,实验证明 TimeXer 在十二个现实预测基准中显著提高了带外生变量的时间序列预测性能,并达到了一致的最先进水平。
Feb, 2024
通过Transformer架构,GridTST模型将时间序列数据视为网格,结合创新的多方向关注机制,同时考虑时间和变量维度,提升了分析能力,并在各种真实数据集上实现了最先进的性能。
May, 2024
本研究解决了时间序列预测中模型复杂性导致的可解释性问题,通过提出TSFeatLIME框架来增强理解。该框架通过将辅助特征集成到代理模型中,并考虑时间序列与生成样本之间的欧几里得距离,提高了代理模型的准确性,并表明对此类解释在非计算机科学背景的参与者中效果显著。
Sep, 2024