Oct, 2014
深层有向生成自编码器
Deep Directed Generative Autoencoders
TL;DR该论文探讨了用离散函数$f(⋅)$作为编码器,深度神经网络作为编码器和解码器的模型,以及通过预训练和逐步转换数据分布来优化模型性能的方法。
Abstract
For discrete data, the likelihood $P(x)$ can be rewritten exactly and parametrized into $P(X = x) = P(X = x | H = f(x)) P(H = f(x))$ if $P(X | H)$ has enough capacity to put no probability mass on any $x'$ for wh
发现论文,激发创造
基于反向传播训练的深度生成随机网络
该论文提出了一种新的概率模型训练原则——基于学习马尔可夫链的转移算子,其稳态分布估计数据分布,并能采样出变量的子集。我们提供了一些定理以证明该方法的有效性,该方法也能适用于带有缺失变量的情况,并且不需要分层逐层预训练。
Jun, 2013
深度自回归网络
本文介绍了一种深度、生成式自编码器,它能够从数据中学习分层式分布式表示。通过基于最小描述长度原理的有效近似参数估计方法,我们证明了该方法在几个经典数据集上取得了最先进的生成性能。
Oct, 2013
MADE: 遮蔽自编码器用于分布估计
本研究提出了一种简单的神经网络自编码器模型,可以遵守自回归约束实现强大的生成模型,其输出结果可以被理解为一组条件概率,可以用于多种架构,包括深度架构,并通过实验证明其与现有的可计算分布估算器的表现相当竞争力,并且测试时速度显著更快,规模更大。
Feb, 2015
解码器生成模型的定量分析
本文提出使用提议的退火重要性抽样方法对基于解码器的模型进行对数似然评估,并使用双向蒙特卡罗验证其精度,分析了解码器模型的性能,现有对数似然估计器的有效性,过拟合程度以及这些模型错过数据分布的重要模式情况。
Nov, 2016
从变分到确定性自编码器
提出一种基于正则化的确定性编码器和解码器的生成模型框架,替换VAEs中的随机性来达到优化潜在空间的目的,并通过引入后验密度估计步骤来生成具有相当或更好质量的样本。
Mar, 2019
在双重差异空间中的深度生成采样:一种数据高效且解释性的生成人工智能方法
利用信息理论,本文通过在优化的一维双重差异空间中直接进行生成抽样,揭示了图像的分布特征以及像素之间的全局和局部依赖结构,提出了一种基于渐变插值的生成新样本的算法,并辅以减少样本复杂性的方法,证明了该方法优于现有的深度学习方法。
Apr, 2024