无概念因果分解变分图自编码器
本文提出了一种基于因果结构的 VAE 算法 CausalVAE,使用因果层将独立外生因素转化为内生因果因素,实现了因果因素的自动发掘和可解释性,实验结果表明 CausalVAE 提出的因果表示能够在多个数据集上实现对真实因果结构的恢复,同时可以生成对因果结构产生干预的对事实数据。
Apr, 2020
我们介绍了 “解缠图自编码器” 和 “解缠变分图自编码器”(DGA 和 DVGA)的方法,其利用生成模型学习解缠表示,通过设计多通道信息传递层的解缠图卷积网络作为编码器,以及引入在不同潜在因素上的独立性约束,我们的方法在合成和真实数据集上实验表明其优越性。
Feb, 2024
设计一种算法 Guided-VAE,通过提供信号来实现 VAE 的潜在编码 / 嵌入,以学习可控的生成模型,该算法在表示学习,合成 / 采样改进,分类中取得了更好的效果
Apr, 2020
本文提出了一种新方法 - 因果分离变分自编码器(CaD-VAE),该方法可以从交互数据中学习因果分离表示,以改善推荐模型的鲁棒性、可解释性和可控性,结果表明此方法可以优于现有的方法
Apr, 2023
本文提出了一种结合因果结构信息的新型流模型 —— 因果流,设计了 CF-VAE 模型,通过利用因果流增强 VAE 编码器的解缠结能力。进一步引入地面真实因素的监督,证明了该模型的解纠缠可识别性。在合成和真实数据集上的实验结果表明,CF-VAE 可以实现因果解纠缠,并进行干预实验。此外,CF-VAE 在下游任务上表现出优异的性能,并有潜力学习因果因素之间的结构。
Apr, 2023
本文提出可变图自编码器 (VGAE) 框架,用于处理基于变分自编码器 (VAE) 的图结构数据无监督学习模型。该模型基于潜在变量,能够学习图的可解释的潜在表示。在引文网络的链接预测任务中,我们使用图卷积网络 (GCN) 编码器和内积解码器来展示该模型。与大多数现有的图结构数据和链接预测无监督学习模型相比,我们的模型可以自然地融入节点特征,从而在许多基准数据集上显著提高预测性能。
Nov, 2016
本文提出了一种基于无监督学习、从神经科学中获得灵感的方法,利用变分自编码器对图像数据进行学习,从而获得解耦表示。该方法可以使神经科学的研究成果得以应用到实际中,同时还有零样本推理和直观理解的优点。
Jun, 2016
本文提出了一种基于独立因果机制的因果解缠结的新概念,并提出了 ICM-VAE 框架来学习因果解缠结表示,使用可学习的基于流的差分同胚函数将噪声变量映射到潜在因果变量,同时为了促进因果因素的解缠结,提出了因果解缠结先验。在相对温和的条件下,我们提供了理论结果,显示出因果因子和机制的可识别性。经验证明,该框架引导出高度解缠结的因果因子,提高了干预的稳健性,并且与因果生成相容。
Jun, 2023
我们提出了一种自我监督的变分自动编码器(VAE),通过自我监督分类器来消除耦合表示,并联合学习解缠的和相关的隐藏因素。
Sep, 2023