基于位置感知图增强变分自编码器的网络时间序列插值
本论文提出 BRITS,一种基于递归神经网络的缺失值填充方法,可以处理多个相关的时间序列缺失值,并可以推广到具有非线性动态的时间序列。在三个真实世界数据集上验证了其有效性。
May, 2018
本文提出一种新的深度顺序潜变量模型,通过高斯过程在时间上平滑演化的抽象低维表示来实现缺失数据的非线性降维和数据插值,旨在解决在医疗和金融等领域中常见的缺失数据问题。我们的方法优于传统的和基于深度学习的数据插值方法,并提供可解释的不确定性估计。
Jul, 2019
本研究使用图神经网络架构GRIN来处理多变量时间序列的缺失值,通过信息传递学习时空表示,实现修复缺失数据,并在真实基准测试中表现出超过20%的平均绝对误差改善。
Jul, 2021
该论文提出了一种基于注意力机制的体系结构,可以在处理高度稀疏的时间序列数据时提高自动编码器的鲁棒性,达到填充(imputation)缺失值的目的。
May, 2022
本文提出了一种新的针对多元时间序列数据的缺失值填补方法(STING),它利用了生成对抗网络和双向循环神经网络来学习时间序列的潜在表示,并引入一种新的自注意力机制来捕捉整个序列的加权相关性,实验结果表明,STING 在多个真实数据集上表现出比现有技术更高的填补精度和增强任务能力。
Sep, 2022
这篇论文研究了使用深度神经网络架构解决多元时间序列插补问题。通过利用低秩插补方法的经验和专长,我们为传统的Transformer模型添加了三项知识驱动的增强,包括投影时间注意力、全局自适应图卷积和Fourier插补损失。这些面向任务的归纳偏置利用了不完整时间序列的内在结构,使得我们的模型适用于多种插补问题。我们通过在包括交通速度、交通流量、太阳能、智能电表和空气质量等异构数据集上进行全面的案例研究来进一步加强其可解释性,并通过有希望的实证结果有力地证明了将低秩属性等时间序列原始特征纳入模型可以大幅促进通用化模型的开发,从而解决广泛的时空插补问题。
Dec, 2023
基于Gegenbauer多项式的图卷积操作符与GegenGNN结构的时间图神经网络通过增强学习模块以提高下游任务的准确性和复杂度,展示出优于现有方法的能力,用于恢复时间变化的图信号。
Mar, 2024
利用NuwaTS框架将预训练语言模型(PLM)重新用于普通时间序列插补任务,通过设定特定嵌入来捕捉不完整时间序列的信息,提出对比学习方法以增强模型对不同遗漏模式的适应性,训练得到一对多的插补模型,并证明其在各种数据集和遗漏模式上胜过现有的特定领域模型。
May, 2024
该研究针对多变量时间序列数据中缺失值插补的问题,提出了一种名为MissNet的方法,利用状态空间模型实现时间依赖性和切换稀疏网络的互相关系,以增强插补的准确性。研究表明,MissNet在插补效果上显著超越了现有先进算法,并且提供了可视化的解释结果。
Sep, 2024