随机 WaveNet: 序列数据生成潜变量模型
本文介绍了一种新的神经网络模型 —— 随机循环神经网络,该模型能高效地传播潜在状态的不确定性来构建序列神经生成模型,并在语音和音乐建模方面取得了比同类方法更好的结果。
May, 2016
本文研究了将潜在随机变量引入到循环神经网络(RNN)的动态隐藏状态中,结合变分自编码器,通过高级潜在随机变量建立了变分循环神经网络(VRNN),可以很好地建模结构化序列数据,如自然语音。通过对四个语音数据集和一个手写数据集的实证评估,证明了潜在随机变量在 RNN 动态隐藏状态中的重要作用。
Jun, 2015
该研究介绍了 WaveNet,一种用于生成原始音频波形的深度神经网络,该模型是完全概率的和自回归的,应用于文本到语音,产生了最先进的性能,用于模拟音乐,生成新颖且高度逼真的音乐片段,并可作为一种判别模型返回有希望的语素识别结果。
Sep, 2016
本文介绍一种基于变分推断的循环神经网络模型 ——Stochastic Recurrent Network(STORN),通过引入潜变量来提高循环神经网络的性能,实现了结构化和多模态条件下的建模。作者在四个多声部音乐数据集和运动捕捉数据上对该模型进行了评估。
Nov, 2014
本文提出了一种名为位置可变卷积的新型条件卷积网络来建模波形序列的依赖关系,其使用具有不同系数的卷积核对不同的波形区间进行卷积操作,该系数根据条件声学特征(如 Mel - 频谱图)预测,基于该方法,我们设计了 LVCNet 进行波形生成,并将其应用于 Parallel WaveGAN 中来设计更高效的声码器,LJSpeech 数据集上的实验结果表明,与原始的 Parallel WaveGAN 相比,我们提出的模型在不降低声音质量的前提下实现了四倍的合成速度提高,从而验证了位置可变卷积的有效性。
Feb, 2021
本文介绍了一种新型的图神经网络,Graph WaveNet,它采用了自适应依赖矩阵和扩张卷积组件,能够精确捕捉数据中的隐藏空间依赖关系和处理非常长的时间序列,通过在两个公共交通网络数据集中的实验结果,证明了我们算法的优越性。
May, 2019
该论文提出一种基于随机循环模型的随机变量生成模型,通过反向递归神经网络实现变分推断优化,同时通过增加辅助成本来提高整体模型性能,并在多个数据集上进行实验表明该模型的效果优于以往算法。
Nov, 2017
这篇论文展示了最近将统计模型与深度循环神经网络相结合提供了一种描述波动度(时间序列的变化程度)模型的新方法,其中包含了一对互补随机循环神经网络,应用在金融领域的时间序列分析和预测。在实现的过程中,作者着重处理了基于随机循环神经网络的波动度动态变化。实际基于股票价格数据的实验证明,这个模型的波动度预测比其他流行模型例如确定性模型 (GARCH)、基于 MCMC 的模型 (stochvol) 和高斯波动过程模型 (GPVol) 有更高的可靠性。
Nov, 2017
本研究提出使用离散潜变量来扩展序列模型,使解码更可并行化,相对于可比较的自回归模型,我们的模型在神经机器翻译任务中解码快一个数量级,而虽然 BLEU 得分低于纯自回归模型,但比以前提出的非自回归翻译模型获得了更高的分数。
Mar, 2018
本文提出了一种新的 STCN 体系结构,其将时间卷积网络(TCN)的计算优势与具有不同时间尺度的时间依赖性的随机潜在空间的表示能力和鲁棒性相结合,提高了多个任务的对数似然度,并且在手写文本建模中能够预测长时间跨度内的高质量合成样本。
Feb, 2019