GAT-GAN:一种基于图注意力机制的时间序列生成对抗网络
FETSGAN 通过 seq2seq 风格的对抗自编码器将整个序列直接转化为生成器的采样空间,引入了 First Above Threshold(FAT)算子来改善训练稳定性和生成的合成数据的整体质量。这些新颖的贡献在时间相似性的定性度量和通过 FETSGAN 生成的数据的量化预测能力方面,显著改善了对手学习算法的当前艺术状态。
Aug, 2023
本文提出了一种新型时序生成对抗网络 (Time Series GAN,TSGAN),并以基准时序数据库中的 70 个数据集作为评估对象,证明了 TSGAN 相较竞争对手表现更好,既在 Frechet Inception Score (FID) 度量中表现更佳,也在分类评估标准上具有更好的定性表现。
Jun, 2020
介绍了一种基于 transformer 的生成对抗网络用于扩充时间序列的数据大小,实现了能够生成与真实数据序列类似的合成时间序列数据。
Feb, 2022
本文提出了一种基于变压器自编码器的、使用对抗训练方案进行正则化的人工多变量时间序列信号生成方法,通过 t-SNE 可视化、动态时间扭曲(DTW)和熵评分对生成的信号进行评估,结果表明与卷积网络方法相比,生成的信号与示例数据集的相似性更高。
Jan, 2024
本文提出新颖的神经网络结构图注意力网络(GATs),利用掩码的自我关注层处理图结构化数据的缺点,有效提出解决谱学派图神经网络中的几个关键挑战的方法,并在四个数据集上取得了最先进的结果。
Oct, 2017
我们提出了一种名为 ' 时间图生成对抗网络 ' 的新模型,它能够连续地生成时间图,并针对回归神经网络设计了一些新的激活函数,以强制实施时间合法性约束,以及一种新的时间图鉴别器,以提高效率和准确性。
May, 2020
本文提出了一种新的多模态时间图注意力网络框架 —— 联合核图注意力网络(Joint kernel Graph Attention Network,JGAT),结合了功能磁共振成像(fMRI)和扩散加权成像(DWI)的数据,可以保留动态信息,具有更好的编码能力。使用 JGAT 模型从多个 7T fMRI 数据集中对大脑进行解码任务,同时可以计算和学习到注意力得分(AS)和帧得分(FS)来定位多个信息时间段,并建立富有意义的动态通路。
Jun, 2023
本文提出了一种基于生成对抗网络(GANs)的无监督异常检测方法 ——TadGAN。TadGAN 利用长短时记忆网络(LSTM)作为生成器和评论家的基础模型以捕获时间序列数据的时间相关性,并通过循环一致性损失进行训练,以实现有效的时间序列数据重构。此外,该方法还提出了计算重构误差的几种新方法,以及不同的方法来组合重构误差和评论家输出以计算异常得分。实验结果表明 TadGAN 能够有效地检测异常,并在大多数情况下(11 个数据集中的 6 个)胜过基线方法。
Sep, 2020
提出了一种名为 Directional Graph Attention Network (DGAT) 的新型图神经网络结构,利用特征注意力和全局方向信息提高图信息的传播能力,并通过拓扑信息引导的节点剪枝和边添加机制以及新的拉普拉斯矩阵来改善 GAT 存在的局限性,实验证明在真实数据集和合成数据集上,DGAT 在性能上优于传统的 GAT 模型,并在 7 个真实数据集中的 6 个数据集上超越了现有的最先进模型。
Mar, 2024
本文通过引入编码上下文并在条件生成对抗网络中使用,扩展了基于 Transformer 的时间序列生成对抗网络 (TTS-GAN),从而可以使用一个模型来拟合具有多个子组件的混合分布。通过定性和定量的评估指标,我们展示了该模型可以生成高维度和长时间序列数据,并在不同条件下具有较好的性能。
Oct, 2022