连续时间自编码器用于正常和非正常时间序列填补
本文介绍了在不规则测量环境中,利用神经普通微分方程或神经流层来提高自回归递归神经网络性能的不同 CTRNN 体系结构,研究表明,在血糖概率预测方面,只有 LSTM 和 ODE-LSTM 体系结构与渐进提升树模型具有相当的性能。
Apr, 2023
该研究提出了一种使用隐式神经表示法的时间序列建模方法,能够有效捕捉时间序列的连续性,并提供对处理缺失数据、不规则采样或多个传感器的不对齐观测等常见问题的自然解决方案,并通过实验表明,在预测和填充任务中取得了最先进的性能,能够灵活处理各种具有挑战性的场景。
Jun, 2023
本文介绍一种基于变分自编码器和生成对抗网络的编码器 - 解码器框架,用于学习不规则采样的时间序列数据,提出了一种连续卷积层用于与现有神经网络体系结构高效对接。实验证明,该模型在不规则多元时间序列分类的结果上可以比最近的 RNN 模型表现得更好,同时具有显著更快的训练速度。
Aug, 2020
这篇论文研究了使用深度神经网络架构解决多元时间序列插补问题。通过利用低秩插补方法的经验和专长,我们为传统的 Transformer 模型添加了三项知识驱动的增强,包括投影时间注意力、全局自适应图卷积和 Fourier 插补损失。这些面向任务的归纳偏置利用了不完整时间序列的内在结构,使得我们的模型适用于多种插补问题。我们通过在包括交通速度、交通流量、太阳能、智能电表和空气质量等异构数据集上进行全面的案例研究来进一步加强其可解释性,并通过有希望的实证结果有力地证明了将低秩属性等时间序列原始特征纳入模型可以大幅促进通用化模型的开发,从而解决广泛的时空插补问题。
Dec, 2023
本文提出了一种名为 PoGeVon 的模型,基于 VAE,利用基于随机游走的节点位置嵌入和多任务学习的三阶段预测,对存在节点特征和图结构上的缺失值的网络化时间序列进行了精确的缺失值预测和图结构重构。
May, 2023
用自动编码器重构缺失的时间序列变量的新方法,通过定义搜索变量为缺失变量并进行优化,可实现训练模型的不同输入和输出特征组合。
Aug, 2023
该研究探讨了使用时间序列编码器学习适用于其未经训练的数据集类型的表示,性能优越,适应性强,可用于处理标记稀疏或未标记的时间序列数据,并通过卷积神经网络和注意机制等多种方法使其性能更加优异。
May, 2018
本文介绍了一种基于自编码递归神经网络的自监督分类模型,它通过对光学变星数据的学习提取特征,能够在天文调查中有效地发现和分类变量星和瞬变现象,并可应用于其他无监督任务,例如预测和异常检测。
Nov, 2017
通过采用自注意力机制和有效的残差组件,我们提出了深度注意力循环填补(DEARI)方法,同时估计异质多元时间序列中的缺失值及其相关的不确定性,并通过一种新颖的贝叶斯边缘化策略将其转化为贝叶斯神经网络,以产生随机 DEARI,并在真实世界数据集上的不同任务中超越了 SOTA,包括空气质量控制、医疗保健和交通。
Jan, 2024
本文提出了一个基于神经网络的端到端模型,可以在存在缺失值的时间序列数据上,同时实现预测并融合缺失值,相比现有方法表现出更好的综合性能。
Jun, 2023