变分循环自编码器
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
本文提出一种基于递归变分自编码器(RVAE)的语音增强的生成方法, 通过与非负矩阵分解噪声模型相结合,仅使用干净的语音信号训练深度生成语音模型, 并在测试时微调 RVAE 的编码器以近似给出噪声语音观测下的潜在变量的分布。与基于前馈完全连接体系结构的先前方法相比,所提出的递归深度生成语音模型引入了潜在变量上的后期时间动态,其在语音增强结果方面表现更好。
Oct, 2019
本文对可变自编码器 (VAE) 拓展至处理序列数据的方法进行了综述,提出并讨论了动态变分自编码器 (DVAEs) 这一类模型,详细介绍了七种 DVAE 模型,并通过语音分析 - 重构任务的实验基准进行了验证,最后探讨了 DVAE 模型的重要问题和未来的研究方向。
Aug, 2020
本文提出了一种使用正则化方法处理 Variational Recurrent Autoencoder 中 latent variables 过于随意造成的语言模型崩溃问题,将额外约束限制在 VRAE 的 latent variables 的后验概率分布中,使得模型能够准确地控制 KL 项和重构项之间的权衡,并学习到更加密集和有意义的 latent representations。实验表明,该方法优于多个强力 baseline,且不需要使用其他 KL 退火策略,能够学到可解释的 latent variables 并生成多样化和有意义的句子。
May, 2019
利用预测时间下一节点以及基于时间平滑性的模型选择度量,我们提出了一种能够减轻 VAE 学习虚假特征,并能在合成数据集中准确恢复潜在因素的 VAE 架构。
Dec, 2023
本文提出了一种基于变分自动编码器的新型体系结构,可用于进行时序数据的合成生成,具有可解释性,能够编码领域知识,训练时间较短。实验表明,该方法在数据相似度和预测性方面均表现优异,依然能够准确地呈现原始数据的时态属性,并且对于下一步预测具有显著的改善效果。最后,该模型可以将特定领域的时间模式融入到生成模型中,提供可解释性的输出。
Nov, 2021
提出了一种因果延迟变分自编码器(CR-VAE)的新型生成模型,它能够从多元时间序列 x 中学习 Granger 因果图,并将其潜在因果机制纳入其数据生成过程中,借助于一个稀疏的邻接矩阵来编码所有变量对之间的因果关系,并在使用经典延迟自动编码器进行比较时,CR-VAE 经常优于最先进的时间序列生成模型。
Jan, 2023
结合深度变分自编码器(VAEs)和自监督学习(SSL)的新型生成框架,解决了数据稀缺导致的潜在空洞问题,提高了基于重建的时序异常检测方法的稳健性。
Jan, 2024
本研究介绍了一种名为 RVRAE 的开创性动态因子模型,它是一种概率性方法,专门处理市场数据中的时间依赖性和噪声,并通过深度学习中的变分循环自编码器 (VRAE) 将动态因子建模原理巧妙地结合起来。RVRAE 的一个关键特征是其使用先验 - 后验学习方法,通过寻找未来数据驱动的最优后验因子模型来优化模型的学习过程。值得注意的是,在波动性股票市场中,RVRAE 擅长风险建模,从潜在空间分布估计方差,并预测回报。我们对真实股票市场数据进行的实证测试证实了 RVRAE 相较于不同已有基准方法的优越性能。
Mar, 2024