理解 $β$-VAE 中的解缠
本文研究了参数 $eta$ 对分离自编码机性能和分离能力的影响,通过训练多个模型,发现其能够将独立输入生成因素编码为代码的单独元素,从而提高了模型行为的可解释性和可预测性。同时,也确定了分离对自编码机判别能力的负面影响。
Nov, 2017
我们提出了一种基于Total Correlation Variational Autoencoder的无监督学习方法,用以生成disentangled representations,并介绍了一种分类器无关的disentanglement度量,称为mutual information gap (MIG)。通过对restricted和non-restricted实验结果的定量和定性分析,我们展示了latent variables model 的total correlation和disentanglement之间的强关联关系。
Feb, 2018
本文提出了VAEs的解耦合方法,即分解潜在表示,通过先验中有结构的聚合编码和适当的重叠来满足。这种分解不仅能实现特定的解耦,还可通过引入先验来实现其他更丰富类型的约束,并通过控制先验和潜在空间分布来改善解耦效果。此外,还介绍了另一套训练目标和先验选择来控制分解和解耦,并对β-VAE在控制潜在空间重叠方面的性质进行了分析。
Dec, 2018
设计一种算法Guided-VAE,通过提供信号来实现VAE的潜在编码/嵌入,以学习可控的生成模型,该算法在表示学习,合成/采样改进,分类中取得了更好的效果
Apr, 2020
本文提出了一种结合因果结构信息的新型流模型——因果流,设计了 CF-VAE 模型,通过利用因果流增强 VAE 编码器的解缠结能力。进一步引入地面真实因素的监督,证明了该模型的解纠缠可识别性。在合成和真实数据集上的实验结果表明,CF-VAE 可以实现因果解纠缠,并进行干预实验。此外,CF-VAE 在下游任务上表现出优异的性能,并有潜力学习因果因素之间的结构。
Apr, 2023
部署深度学习神经网络在边缘设备上,实现真实世界中特定目标,需要减少其内存占用、功耗和延迟。高效模型压缩可以实现这一目标。变分自编码器(VAE)网络产生的解缠缠绕的潜在表示是实现模型压缩的有希望方法,因为它们主要保留了与任务相关的信息,并丢弃了对当前任务无用的信息。我们利用Beta-VAE框架结合标准修剪准则,研究了迫使网络学习解缠缠绕表示对于分类任务的修剪过程的影响。具体来说,我们在MNIST和CIFAR10数据集上进行实验,研究了解缠缠绕的挑战,并为未来的研究提出了一个方向。
Jul, 2023
通过将标准的高斯变分自编码器(VAE)替换为量身定制的分类变分自编码器,我们探究了离散潜变量空间与解耦表示之间的关系。我们展示了分类分布的基础网格结构可以减轻与多变量高斯分布相关的旋转不变性问题,并作为解耦表示的高效先验。我们提供了分析和经验证据表明,离散VAE在学习解耦表示方面的优势。此外,我们引入了第一个偏向于解耦表示的无监督模型选择策略。
Jul, 2023
本研究解决了解耦表示学习中的真相信息缺失问题,提出了一种通过离散变分自编码器(VAE)来实现解耦的新方法。研究表明,结合全局代码簿的标量量化和总相关优化项能够显著提升解耦效果与重构性能,FactorQVAE方法在两个解耦指标上优于以往的解耦方法,具有重要的应用潜力。
Sep, 2024
本研究解决了解耦表示在生成建模中的有限适用性问题,通过引入一种新颖的总相关性下界(TC),优化变分自编码器(α-TCVAE),以最大化解耦和潜在变量的信息性。研究表明,α-TCVAE 在复杂数据集上能够学习到更加解耦的表示,并生成更多样化的观察结果,为机器学习领域提供了更好的生成能力和应用潜力。
Nov, 2024