FDNet: 用于高效、鲁棒和实用的时间序列预测的 焦点分解网络
提出了一种 Time-Frequency Enhanced Decomposed Network (TFDNet) 方法,用于从时频域捕捉长期潜在模式和时间周期性,通过多尺度的时频增强编码器支撑和两个独立的趋势和季节时频块来捕捉多分辨率中分解的趋势和季节成分的不同模式,实验证明 TFDNet 在效果和效率上优于现有方法。
Aug, 2023
利用 TSDFNet 神经网络的自分解和注意力特征融合机制来实现对时间序列数据的预测,同时解决了传统上严重依赖领域知识的特征选择问题以及深度学习模型的可解释性问题。
Oct, 2022
LTSF-DNODE is proposed as a solution to the limitations of Linear-based LTSF models and Transformer-based approaches, showing better performance on various real-world datasets and exploring the impacts of regularization in the NODE framework for each dataset.
Nov, 2023
本研究提出了一种基于深度学习的新颖转移架构 SeDAN,通过从跨域数据集中对可转移的知识进行对齐来提高目标领域的预测性能,采用隐式对比分解来对原始特征进行分解,并针对不同域的分解特征设计相应的适应性方法,实验表明 SeDAN 可以提供更高效,更稳定的知识传递,可应用于多元时间序列预测。
Jun, 2023
FCDNet 是一个简洁而有效的框架,通过两个轻量级依赖构造器,从多层频率模式中自适应地提取长期和短期依赖信息,从而克服了先前方法所面临的限制,并显著超过强基线,平均改进了 MAE 的 6.82%、RMSE 的 4.98% 和 MAPE 的 4.91%。
Dec, 2023
本文介绍了一种名为 SSDNet 的新型深度学习方法,其使用 Transformer 架构和状态空间模型进行时序预测,能够提供包含趋势和季节组成部分以及前一时间步骤的概率性和可解释性预测,SSDNet 在五个数据集上的性能综合评估表明,它在准确性和速度方面都表现出色,超越了最先进的深度学习和统计方法,并能提供有意义的趋势和季节组成部分。
Dec, 2021
本研究提出了一种新颖的时间序列预测模型,FPN-fusion,具有线性计算复杂度,相比于 DLiner 具有更优越的预测性能而无需增加参数数量或计算需求。我们的模型引入了两个关键创新:首先,采用特征金字塔网络(FPN)有效地捕捉时间序列数据的特征,避免了传统趋势和季节分解;其次,开发了一个多层融合结构,无缝地整合深层和浅层特征。在八个开源数据集上的 32 个测试案例中,FPN-fusion 在 31 个案例中表现优于 DLiner,平均均方误差 (MSE) 减少 16.8% 和平均绝对误差 (MAE) 减少 11.8%。此外,与基于 Transformer 的 PatchTST 相比,FPN-fusion 在 32 个测试项目中实现了 10 个最佳 MSE 结果和 15 个最佳 MAE 结果,仅使用了 PatchTST 总计算负载的 8%。
Jun, 2024
本文提出了一种基于小波和神经网络的多级小波分解网络(mWDN),用于构建能 “感知” 时间序列频率的深度学习模型,并基于此模型提出了两个深度学习模型以应用于时间序列分类和预测,并在 40 个常用的 UCR 数据集和真实用户量数据集上进行了广泛实验验证,同时还提出了一种解释深度学习的方法。
Jun, 2018
提出了用深度神经网络从头开始进行时间序列分类的简单但强大的基准线。通过提出的全卷积网络(FCN)和 ResNet 结构的非常深层神经网络的探索,实现了优越的性能。我们卷积模型中的全局平均池化即可利用类激活映射(CAM)来查找特定标签的原始数据中的贡献区域,为现实世界的应用提供了简单的选择和未来研究的良好起点,同时提供了总体分析来讨论我们的模型,学习特征,网络结构和分类语义的泛化能力。
Nov, 2016
本研究提出了一种混合模型,将经典时间序列模型与基于深度神经网络的模型结合起来,通过全局深度组件实现可扩展性和数据驱动,同时通过本地经典模型处理不确定性。实验证明,该模型在数据效率、准确性和计算复杂性方面具有优势。
May, 2019