本文介绍了一种结合对比学习和深度生成模型的对比变分自编码器 (cVAE),旨在通过训练共享特征和不同特征的模型来发现和增强突出的潜在特征。实验表明,cVAE 可以有效地发现在特定分析中显著的潜在结构。
Feb, 2019
该论文提出 Contrastive Analysis VAE (CA-VAEs) 方法来解决 VAE 中存在的信息共享和捕捉所关注的变化因素的问题,并使用两个关键的规则化损失(common-salient 表示的分离项和在 salient 空间中对背景和目标样本的分类项)进行改进。实验证明 CA-VAEs 在医学应用和自然图像数据集 CelebA 上的表现优于先前的方法。
Jul, 2023
通过使用自我监督对比编码器学习仅从输入图像中提取共同模式的潜在表示,利用数据增强技术近似目标模式的分布,并利用高级生成方法的条件生成过程,生成仅包含共同模式的真实(健康)版本的输入图像,从而提高生成图像质量和图像分类准确性。
Jun, 2024
通过构建高斯混合变分自编码器,基于对比学习构建了一个多标签预测模型,利用数据驱动方式有效挖掘标签信息和增强预测能力,且通过学习特征和标签的潜在空间实现了更好的性能,适用于多个公共数据集。
Dec, 2021
通过多个数据集的实验和分析,研究了深度潜变量模型在因果推断中的应用,发现需要注意确保其因果估计的正确性。
Feb, 2021
本文提出了一种基于采样的变分分布表示方法,用于自然语言生成中 deep latent variable models,并通过最大化互信息的正则化来解决 posterior collapse 问题,进一步发展了 VAE,并在多个文本生成场景中证明了其有效性和通用性。
Aug, 2019
探讨使用潜变量模型实现神经机器翻译中的条件文本生成性能,通过引入连续潜变量来增强编码器 - 解码器 NMT 范例,利用 Inference Network 中的共同关注机制来扩展该模型,使用不同方法试图缓解后验崩溃问题,并且探究学习潜空间的能力,该模型能有效地优化翻译模型。
Dec, 2018
用于多模态数据的生成模型可用于识别与观察数据异质性重要决定因素相关的潜在因素。然而,存在一些变量是特定于单个模态的私有变量,而共享变量对解释多模态数据的变异性很重要。本研究探讨了多模态变分自编码器在可靠地实现这种解缠的能力方面,针对一种挑战性的问题设置,其中模态特定变异占主导地位,并提出了一种修改方法,使其对模态特定变异更加鲁棒。我们的发现得到了合成数据和多种真实世界多组学数据集的实验证实支持。
Mar, 2024
本文提出了一种基于概率模型的降维方法,通过在目标数据集和背景数据集之间寻找信号富集的模式,能够恢复目标数据集中潜在空间中的有趣结构,并可应用于去噪、特征选择和子组发现等领域。
Nov, 2018
通过变分推断的视角深入探讨了深度潜变量模型的局限性,洞察了深度参数化条件概率的困难性以及潜变量目标在反向传播中的不可微性问题。