因式分解解开纠缠
我们提出了一种新颖的基于 VAE 的深度自编码器模型,可以完全无监督地学习分解的潜在表征,具有识别所有有意义的变异源及其基数的能力,该模型通过引入所谓的关联指标变量并联合 VAE 参数进行自动学习,有效地将总相关损失集中到相关因素上,我们的模型在许多具有挑战性的基准数据集上胜过了现有方法。
Feb, 2019
本文提出了 VAEs 的解耦合方法,即分解潜在表示,通过先验中有结构的聚合编码和适当的重叠来满足。这种分解不仅能实现特定的解耦,还可通过引入先验来实现其他更丰富类型的约束,并通过控制先验和潜在空间分布来改善解耦效果。此外,还介绍了另一套训练目标和先验选择来控制分解和解耦,并对 β-VAE 在控制潜在空间重叠方面的性质进行了分析。
Dec, 2018
提出了一种名为 Bayes-Factor-VAEs 的新型层级贝叶斯深度自编码器模型,使用长尾分布对数据的可变因素进行因子分离,可以在几个基准测试中量化和定性地优于现有方法。
Sep, 2019
本文以率失真理论为角度,探讨优化 $eta$-VAE 的修正 ELBO 下界时,在训练过程中的潜在编码信息容量逐渐增加的情况下,哪些情况下会出现与数据生成因素相对应的编码表示,我们基于这些洞见提出了一种修改 $eta$-VAE 训练机制的方法,可以在不降低重构精度的情况下有力地学习到解缠合表示。
Apr, 2018
本研究提出了一种在深度生成模型中实现无监督的解缠结潜在表示的方法,通过在 VAE 的潜在空间中引入反 Wishart 先验来实现潜变量之间的统计独立性,能够在多个数据集上优于 beta-VAE 和与最先进的 FactorVAE 相竞争。
Sep, 2018
本文提出一种分解的分层变分自动编码器,能够在无监督的情况下从序列数据中学习分离和可解释的表征。该模型基于多尺度信息的分层结构,实现了针对不同潜变量集合的序列依赖先验和序列无关先验。通过在两个语音语料库上的实验,表明该模型能够通过操纵不同的潜变量集合来转换说话人或语言内容,并在说话人验证和自动语音识别任务中优于基线模型。
Sep, 2017
提出一种名为 SW-VAE 的新型弱监督训练方法,该方法利用数据集的生成因素将输入观测对作为监督信号进行训练,并且引入了逐渐增加学习难度的策略来平滑训练过程。通过多个数据集的实验证明,该模型在表示分离任务上显示出明显的优于最先进方法的改进。
Sep, 2022
factVAE 是一种鲁棒的深度生成模型,能够处理多方面的数据,在缺失数据的情况下表现良好,并且以一种能够鼓励群体和潜在维度之间分离的方式进行处理。
Jun, 2018
本文提出一种新方法实现无监督离散和连续特征分离,利用 Beta-VAE 框架通过级联信息流方式最小化连续潜变量的总相关性,并通过分离离散特征的推理过程减轻编码器负担,最后在实验中显示其显著优于现有方法的分离得分和推理网络分类得分。
May, 2019