TG-GAN: 基于深度生成模型的连续时间时序图形生成
本文提出了一种基于图注意力机制的生成对抗网络(GAT-GAN),使用这种方法可以生成具有高保真度的长时间序列数据,可以通过使用 FTD 评分标准来标准化地评估生成数据的质量和多样性,并且评估结果表明,相比于现有的基于 Frechet Transformer distance 和 Predictive score 的基准模型,GAT-GAN 在多个真实数据集上表现更优。
Jun, 2023
该研究提出了基于深度图形转换的解决方案,使用新的图卷积和解卷积层来学习传输映射,并引入一种新的条件图鉴别器,以训练生成对抗网络来实现异常图形模式的预测,实验表明该方法具有很好的效果和可扩展性。
May, 2018
本文提出了一种生成式模型 Temporal Generative Adversarial Nets(TGAN),用于学习未标记视频的语义表示,并能够生成视频。我们的模型利用两种不同类型的生成器:时间生成器和图像生成器,解决了利用现有的基于 GAN 的方法生成视频时存在的问题。为了稳定训练,我们采用了最近提出的 Wasserstein GAN 模型,并提出了一种稳定的端到端训练方法。实验结果表明了我们方法的有效性。
Nov, 2016
生成模型的新类别 - 生成拓扑网络(GTNs)使用简单的监督学习方法并基于拓扑理论进行确定性训练。在 MNIST、celebA 和 Hands and Palm Images 数据集中展示了 GTNs 的优势,并通过 GTNs 的理论提供了改进性能的培训方法。
Jun, 2024
本文提出了一种新型时序生成对抗网络 (Time Series GAN,TSGAN),并以基准时序数据库中的 70 个数据集作为评估对象,证明了 TSGAN 相较竞争对手表现更好,既在 Frechet Inception Score (FID) 度量中表现更佳,也在分类评估标准上具有更好的定性表现。
Jun, 2020
一篇最近的研究表明,在学习成功分类的时间序列数据的分层表示方面,监督卷积神经网络(CNNs)具有优势。然而,这些方法需要足够大规模的标记数据进行稳定学习,然而获取高质量的标记时间序列数据可能是昂贵且难以实现的。因此,本文引入了一种时间序列卷积生成对抗网络(TCGAN),通过在没有标记信息的情况下,让两个一维 CNN(即生成器和判别器)进行对抗性博弈来学习。TCGAN 在合成和真实数据集上进行了广泛的实验证明其比现有时间序列生成对抗网络更快且更准确,其学习到的表示使得简单的分类和聚类方法能够达到优越且稳定的性能,在少标记和不平衡标记的场景下仍保持高效性。本研究为有效利用丰富的无标记时间序列数据提供了一条有希望的途径。
Sep, 2023
FETSGAN 通过 seq2seq 风格的对抗自编码器将整个序列直接转化为生成器的采样空间,引入了 First Above Threshold(FAT)算子来改善训练稳定性和生成的合成数据的整体质量。这些新颖的贡献在时间相似性的定性度量和通过 FETSGAN 生成的数据的量化预测能力方面,显著改善了对手学习算法的当前艺术状态。
Aug, 2023
本文提出了一种新的因式化深度生成模型框架,旨在实现可解释的动态图形生成,并提出了各种生成模型,以表征节点、边、静态和动态因子之间的条件独立性,并基于新设计的因子化变分自编码器和循环图解卷积提出了变分优化策略和动态图解码器。多个数据集上的广泛实验验证了所提出模型的有效性。
Oct, 2020