本文提出一种基于递归变分自编码器(RVAE)的语音增强的生成方法, 通过与非负矩阵分解噪声模型相结合,仅使用干净的语音信号训练深度生成语音模型, 并在测试时微调 RVAE 的编码器以近似给出噪声语音观测下的潜在变量的分布。与基于前馈完全连接体系结构的先前方法相比,所提出的递归深度生成语音模型引入了潜在变量上的后期时间动态,其在语音增强结果方面表现更好。
Oct, 2019
本研究提出了一种新的基于已有组件的网络结构用于快速学习视频压缩,针对现有方法的图形概率模型进行了分析并指出了实验评估中观察到的时间一致性和颜色偏移的问题,并提出了解决这些问题的方向。
Apr, 2020
该论文提出了一种模型 —— 变分循环自编码器(VRAE),结合了 RNN 和 SGVB 的优点,可用于针对大规模时间序列数据进行高效的无监督学习,将时间序列数据映射为潜在向量表示。该模型具有生成性,因此可以从潜空间的样本生成数据。此外,该模型能够利用无标记数据,通过初始化权重和网络状态,促进 RNN 的监督训练。
Dec, 2014
本研究利用协同过滤和深度学习来设计了一种混合方法 CRAE,包括一种去噪自编码器和一种可学习池化模式,模拟了推荐系统中内容序列的生成过程,在不同领域的真实数据集中,能够显著提高推荐和序列生成的准确性。
Nov, 2016
本研究提出了一种创新的无监督特征选择框架 —— 分形自编码器 (FAE),它通过训练神经网络来精确定位全局取代能力和局部多样性的信息特征,具有显著优势,可在 14 个数据集上验证,特别是在基因表达数据探索方面可将测量成本降低约 15%,比现有的同类方法性能更优。
Oct, 2020
提出了一种因果延迟变分自编码器(CR-VAE)的新型生成模型,它能够从多元时间序列 x 中学习 Granger 因果图,并将其潜在因果机制纳入其数据生成过程中,借助于一个稀疏的邻接矩阵来编码所有变量对之间的因果关系,并在使用经典延迟自动编码器进行比较时,CR-VAE 经常优于最先进的时间序列生成模型。
Jan, 2023
本文提出了一种采用循环自编码器(RAE)和循环概率模型(RPM)的递归学习视频压缩(RLVC)方法,以充分利用视频帧之间的时间相关性,实验结果表明,该方法在 PSNR 和 MS-SSIM 方面都达到了最先进的学习视频压缩性能,优于默认的 x265 低延迟 P(LDP)设置和 SSIM-tuned x265 等。
Jun, 2020
本文提出了一种基于深度生成模型的视频压缩方法,采用三维自编码器和自回归先验以最小化速率失真损失,实现编码效果优于现有的基于运动补偿或插值的视频压缩网络,并且在设计选择和压缩技术方面进行了系统评估和扩展,包括语义压缩、自适应压缩和多模态压缩,以便在非标准成像传感器捕获的多个模态数据上实现联合压缩。
Aug, 2019
本文提出了一种基于分层循环编码器解码器结构的模型,通过采样 softmax 估计开发了一种训练算法,可以在不需要高频解码器的情况下训练整个模型,显著降低了自回归模型训练的存储需求并改进了总的训练时间。
Jun, 2023
本文论述了使用卷积神经网络自编码器解决长码和短码的问题,通过对一系列信噪比的探索,与其他编码方案相比,发现该方案可以逼近理论最大可实现速率,解决了在无线网络中实现低延迟应用需要高可靠性编码的挑战。
May, 2023