本文介绍了一种深度、生成式自编码器,它能够从数据中学习分层式分布式表示。通过基于最小描述长度原理的有效近似参数估计方法,我们证明了该方法在几个经典数据集上取得了最先进的生成性能。
Oct, 2013
研究利用 Monte Carlo Dropout 方法为基础实现的自编码器与变分自编码器,并比较其生成数据集的统计属性、结构相似性和预测相似性与真实数据集的相似性,结果表明两种方法基本相似,并且都能够生成与特定数据相似的数据。
Sep, 2019
本文将 Bengio 等人提出的去噪自编码器的采样程序扩展到了 gated 自编码器,实现了在 MNIST 数据集中的分类条件采样。
Dec, 2014
我们提出了一种数值方法,可以从轨迹数据中学习一个精确的预测模型,以预测未知随机动力系统。该方法使用自编码器的思想来识别未被观察的潜在随机变量,并通过深度神经网络来设计编码器和解码器,从而重建系统的未来状态。经过大量的数值示例验证,该方法能够使用短时间的轨迹数据产生长期的系统预测结果,并适用于非高斯噪声驱动的系统。
Dec, 2023
本文介绍了一种名为感知生成自编码器的新型生成模型。该模型通过将生成的和目标分布映射到一个潜空间中,并用具有理论依据的数据和潜空间重构损失同时在数据空间和隐空间中强制同步,从而能够在无限制的神经网络体系结构和任意数量的潜在维度上推广可逆生成模型的思想,并且在样本质量方面显著优于传统自编码器和其他基于自编码器的生成模型。
Jun, 2019
本研究探索使用可扩散概率模型作为自编码器的解码器,让输入图像生成一个可以被意义化和解码的编码向量,该编码向量分为两部分:第一部分是含有语义的线性编码,而第二部分是建模随机变量的编码,提升了图像生成的质量并且在其他应用中可以用来做属性调整和去噪等任务。
Nov, 2021
提出了一种新颖的生成自编码器网络模型,能够高质量、高分辨率地学习编码和重建图像,并支持从编码器的潜在空间进行平滑的随机采样。
Jul, 2018
本文理论证明了用 BCE 训练的 DAE 能够在数据空间中向高概率区域梯度下降,进而在实验中通过噪声数据生成和对初始数据的迭代应用 DAE 进行数据向高概率区域的改进。
Aug, 2017
该论文探讨了用离散函数 $f (⋅)$ 作为编码器,深度神经网络作为编码器和解码器的模型,以及通过预训练和逐步转换数据分布来优化模型性能的方法。
Oct, 2014
本文介绍了一种使用基于上下文无关文法的句法树进行编码和解码的变分自编码器,用于生成离散数据,此方法可以保证生成数据的有效性,并在符号回归和分子合成的贝叶斯优化中展示出更好的性能。
Mar, 2017