本文介绍了一种深度、生成式自编码器,它能够从数据中学习分层式分布式表示。通过基于最小描述长度原理的有效近似参数估计方法,我们证明了该方法在几个经典数据集上取得了最先进的生成性能。
Oct, 2013
本研究提出了利用重构为深度学习提供层本地的训练信号的方法,重构可以通过目标传播的形式进行传播,类似于反向传播,但有助于减少导数的依赖性以跨越许多水平的可能具有强非线性的学分任务,重构可以是一个更可能是其输入版本的重构,即更高似然性的方向上的小移动,目标传播还可以训练具有离散隐藏单元的深度网络。
Jul, 2014
该论文探讨了用离散函数$f(⋅)$作为编码器,深度神经网络作为编码器和解码器的模型,以及通过预训练和逐步转换数据分布来优化模型性能的方法。
Oct, 2014
本研究提出了使用神经网络模型通过权值共享和概率乘积规则实现无监督分布和密度估计的新方法,并探讨了如何构建深度神经网络在建模二进制和实值观察方面具有竞争力的性能以及如何利用深度卷积神经网络来处理图片中的拓扑结构。
May, 2016
使用Masked Autoregressive Flow构建自回归模型栈,提高神经密度估计的灵活性,达到最先进的性能表现。
May, 2017
使用LMConv实现了生成模型的任意序列生成,可以用于图像完成等任务,在整体图像密度估计(2.89 bdp无条件CIFAR10)方面取得了改进的性能,同时实现了全局连贯图像完成。
Jun, 2020
本文介绍了一种可以对序列数据进行OADE任务的神经架构,并证明可以在完全无需修改的情况下应用到OADE任务中。我们称之为DEformer,并展示了DEformer相对于固定顺序的自回归分布估计算法和流式神经网络在对MNIST数据集进行建模时表现更加优异的证据。
Jun, 2021
本文展示掩码自动编码器(MAE)是可扩展的自监督计算机视觉学习器, 通过实现以两种核心设计为基础的MAE方法:一种不对遮罩令牌进行编码的编码器和一种从潜在表示和遮罩令牌中重建原始图像的轻量级解码器,并使用更高比例的保持训练图片完整性的遮罩令牌,同时能够提高训练精度和加速计算。本方法能够训练大型高容量模型,并Transfer Learning具有出色的性能。
Nov, 2021
本文深入探讨了概率分布和变分自编码器的理论,并总结当前研究现状;适合机器学习初学者了解概率分布学习中的核心思想及其在深度学习领域的应用,并为此子领域的新参与者提供了一个适宜的入门机会。
Jun, 2022
本研究提出了一种新的两阶段框架,包括掩蔽量化VAE(MQ-VAE)和Stackformer,在图像生成中减轻冗余感知信息的影响,实现了高效有效的图像生成。
May, 2023