离散变分自编码器
通过将标准的高斯变分自编码器(VAE)替换为量身定制的分类变分自编码器,我们探究了离散潜变量空间与解耦表示之间的关系。我们展示了分类分布的基础网格结构可以减轻与多变量高斯分布相关的旋转不变性问题,并作为解耦表示的高效先验。我们提供了分析和经验证据表明,离散 VAE 在学习解耦表示方面的优势。此外,我们引入了第一个偏向于解耦表示的无监督模型选择策略。
Jul, 2023
该研究利用基于期望最大化算法的训练技术提高 VQ-VAE 模型在 CIFAR-10 数据集上的图像生成结果,并通过知识蒸馏技术,开发出一种非自回归机器翻译模型,其准确性几乎与强贪婪自回归基线变压器相当,但在推理速度上快 3.3 倍。
May, 2018
本文深入探讨了概率分布和变分自编码器的理论,并总结当前研究现状;适合机器学习初学者了解概率分布学习中的核心思想及其在深度学习领域的应用,并为此子领域的新参与者提供了一个适宜的入门机会。
Jun, 2022
本文提出一种基于变分自编码器(Variational Autoencoder)的新方法来实现对自然语言处理(NLP)系统的解释,并将文本语言特征建模为离散变量以实现学习解缠编码表示,实验结果显示该方法在多个基准测试和一个文本风格迁移后处理应用中表现优异且优于基于连续和离散变量的基准模型。
Sep, 2021
本文提出了使用 Dirichlet 优先的 DirVAE 模型,利用随机梯度法来推论模型参数,解决了潜变量坍塌问题,并在 MNIST,OMNIGLOT,和 SVHN 等数据集上进行了半监督和监督分类任务的实验,结果表明 DirVAE 模型在生成的潜在表达方面与其它基线模型相比具有最佳的对数似然,并且没有出现基线模型出现的坍塌问题,同时,对比基线模型,利用 DirVAE 模型学到的潜在表达还能够实现更好的半监督和监督分类性能。
Jan, 2019
本文通过将训练步骤分为两个阶段来解决 KL - 消失问题,采用多层感知器对高斯噪声进行变换来对潜在变量进行采样,从而实现更灵活的分布,实验结果表明,我们的模型在度量和人类评估方面都有大幅度提高。
Feb, 2018
本文提出了一种基于 Wasserstein 自动编码器(WAE)的灵活方法,用于训练离散结构的深度潜变量模型,该方法扩展了 WAE 框架以对离散序列进行建模,并进一步探索了不同的先验知识以获得可控表示,最后展示了 WAE 中的潜变量可以进行文本风格转换。
Jun, 2017
本文介绍了一种使用基于上下文无关文法的句法树进行编码和解码的变分自编码器,用于生成离散数据,此方法可以保证生成数据的有效性,并在符号回归和分子合成的贝叶斯优化中展示出更好的性能。
Mar, 2017
本文介绍了一种基于随机变分推理 (Variational Inference) 的学习算法,可以为存在潜变量的、具有难以处理的后验分布的连续概率模型提供有效的推理和学习方法,特别是在大型数据集下具有较好的表现,且已经在实验上得到了验证。
Dec, 2013