自然聚类下的鲁棒表征学习和解排
提出了一个通过spike-and-slab受限玻尔兹曼机实现高阶交互来分离数据变异因素的新模型,与以往不同的是该模型不需要使用潜在因素的监督信息来训练,并在面部表情分类任务中展示了其效果。
Oct, 2012
我们研究了一个变分自编码器模型(VAE)的变体,其中高斯混合作为先验分布,通过深生成模型实现无监督聚类,通过最小信息约束启发式,缓解了过度正则化问题,并在合成数据、MNIST 和 SVHN 上证明了模型的性能。
Nov, 2016
提出了一种无监督生成聚类方法Variational Deep Embedding (VaDE),使用高斯混合模型和神经网络来建模数据生成过程,并在VaDE中使用变分推断实现更好的聚类效果,并可生成高度逼真的样本,更广泛的混合模型也可以轻松集成。
Nov, 2016
提出了Multi-Level Variational Autoencoder用于学习语义上相关并解耦的潜变量表示,将工作集中在组别和个体水平上的同时保持高效的测试时推理,以便对相关变量进行无监督控制。
May, 2017
本文研究了参数 $eta$ 对分离自编码机性能和分离能力的影响,通过训练多个模型,发现其能够将独立输入生成因素编码为代码的单独元素,从而提高了模型行为的可解释性和可预测性。同时,也确定了分离对自编码机判别能力的负面影响。
Nov, 2017
本文提出了一种使用弱监督来将潜在空间分离成两个互补子空间的新架构,使用变分自编码器中的循环一致性,获得鼓舞人心的结果,并与利用对抗训练的最近作品进行了比较。
Apr, 2018
本文提出一种基于变分自编码器(Variational Autoencoder)的新方法来实现对自然语言处理(NLP)系统的解释,并将文本语言特征建模为离散变量以实现学习解缠编码表示,实验结果显示该方法在多个基准测试和一个文本风格迁移后处理应用中表现优异且优于基于连续和离散变量的基准模型。
Sep, 2021
本文深入探讨了概率分布和变分自编码器的理论,并总结当前研究现状;适合机器学习初学者了解概率分布学习中的核心思想及其在深度学习领域的应用,并为此子领域的新参与者提供了一个适宜的入门机会。
Jun, 2022
本研究解决了解耦表示学习中的真相信息缺失问题,提出了一种通过离散变分自编码器(VAE)来实现解耦的新方法。研究表明,结合全局代码簿的标量量化和总相关优化项能够显著提升解耦效果与重构性能,FactorQVAE方法在两个解耦指标上优于以往的解耦方法,具有重要的应用潜力。
Sep, 2024