傅里叶变换在神经时间序列分析中的应用:综述
该研究提出了神经傅里叶变换 (NFT) 算法,通过结合多维傅里叶变换和时间卷积网络层来提高预测准确性和可解释性,经过实证验证在多个预测时间范围和回顾期上表现出卓越性能,显著提高多变量时间序列预测的水平。
May, 2024
通过在 AI 和神经架构的最新进展中采用傅里叶变换,本研究报告将探索和回答有关此过程的基本问题。进一步地,我们展示了如何通过学习从头开始的神经架构,为音频信号处理应用程序学习这些内核,并发现神经架构不仅可以学习正弦内核形状,还可以发现各种令人难以置信的信号处理特性,例如窗函数、起始检测器、高通滤波器、低通滤波器、调制等。
Aug, 2023
本文系统地回顾了 Transformer 在时间序列建模中的运用,总结了其优点、局限性以及在网络结构、应用方面的适应性和修改,并对常见的时间序列任务进行了分类,包括预测、异常检测和分类。通过实证分析,研究了 Transformer 在时间序列中的表现,并提出了未来研究方向。这是第一篇全面系统地总结 Transformer 近期在时间序列数据建模领域进展的论文。
Feb, 2022
在图像和语言领域,生成式人工智能已经引起了很大关注,使用转换器神经网络持续主导最新技术。然而,将这些模型应用于时间序列生成的研究尚不充分,而这对于机器学习、隐私保护和可解释性研究具有极大的实用价值。本综述通过识别转换器、生成式人工智能和时间序列数据这一稀缺研究子领域,回顾了已有的研究工作。回顾的工作方法多样,但尚未就该领域提出解决问题的确定答案。在最初进行的调查中,除了转换器之外,还遇到了 GANs、扩散模型、状态空间模型和自编码器。虽然该领域还没有提供确定性的洞见,但是已经回顾的工作具有很大的启发性,并提供了一些建议的最佳实践和有价值的未来工作建议。
Jun, 2024
通过傅里叶分析,研究 DNN 训练的理论框架,解释了梯度下降法训练 DNN 经常赋予目标函数低频分量更高的优先级,小的初始化导致 DNN 具有良好的泛化能力,同时保留拟合任何函数的能力。这些结果进一步得到了 DNN 拟合自然图像、一维函数和 MNIST 数据集的实验证实。
Aug, 2018
本论文调研了时间序列数据增强技术及其在神经网络时间序列分类中的应用,其中提出了四种基于变换、模式混合、生成模型和分解方法的方法, 并在 128 个时间序列分类数据集上使用六种不同类型的神经网络对 12 种时间序列数据增强方法进行了实证评估,以分析每种数据增强方法的特点、优缺点和建议,并旨在帮助选择神经网络应用的时间序列数据增强方法
Jul, 2020
深度学习在时间序列预测方面取得了显著进展,其中 Transformer 架构在处理长序列的语义相关性方面表现出色。研究综述了 Transformer 架构及其改进方法在长期时间序列预测任务中的应用,总结了公开的长期时间序列预测数据集和评估指标,并提供了关于在时间序列分析中有效训练 transformers 的最佳实践和技术,最后提出了该领域的潜在研究方向。
Oct, 2023
本文综述了近年来 2020 至 2022 年关于利用深度学习模型基于金融时序数据预测价格的研究,包括不同数据源和神经网络结构的实现细节,旨在让研究人员了解该领域最新进展,方便选择先前研究中使用的模型基线,并提供未来研究建议。
Apr, 2023