- VampPrior 混合模型
对于深度潜在变量模型 (DLVMs),当前的聚类先验方法要求事先定义聚类数目并容易受到初始值的影响。通过同时进行整合和聚类,我们将 VampPrior(Tomczak 和 Welling,2018)调整到一个狄利克雷过程高斯混合模型中,形成 - 澄清变分扩散模型
借助有向图模型和变分贝叶斯原理,本文对扩散模型进行了直观且较为简单的介绍,包括深度潜在变量模型的基本概念及连续时间扩散建模的最新进展,强调不同模型之间的理论联系,同时提供了一些被先前研究遗漏的数学观点以提高理解,旨在为研究人员和实践者提供有 - 扩散变分推断:扩散模型作为表达丰富的变分先验
我们提出了去噪扩散变分推断(DDVI)算法,它是一种基于扩散模型作为表达性变分后验的潜变量模型的近似推断算法。我们的方法通过辅助潜变量来增强变分后验,从而得到一类表达性模型,通过反转用户指定的噪声过程在潜变量空间中进行扩散。通过优化受 wa - 半监督近义复述生成的深层潜变量模型
研究利用深度潜在变量模型进行半监督任务,提出了 VSAR 和 DDL 两个模型,组合使用可提高性能,在已知文本对的情况下使用 DDL+VSAR 进行半监督学习,使用提出的权重初始化方法解决冷启动问题,经实验验证,该模型在数据不完整的情况下具 - ICLR强化学习的潜在变量表示
本文提出了一种基于深度潜变量模型的策略学习框架,在理论上和实践中检验了潜变量模型在优化强化学习中发挥的作用,同时提出了一种计算高效的规划算法,并在多个基准测试中证明了其优越性能。
- 深度生成模型的可识别性研究 —— 无需辅助信息
本研究证明了一类深度潜在变量模型的可识别性,并建立了一个可识别性层次结构,其中考虑了不同的假设条件导致不同的识别强度,包括一些基于 Mixture 先验的变分自动编码器和基于 ReLU/Leaky-ReLU 激活函数的编码器。
- 深度潜变量模型因果估计的一项重要检验
通过多个数据集的实验和分析,研究了深度潜变量模型在因果推断中的应用,发现需要注意确保其因果估计的正确性。
- ICLR不是随机缺失数据下的深度生成建模
提出了一种基于深度神经网络和重要性采样变分推理的方法,用于建立和拟合深度潜变量模型。该方法可以在处理缺失数据时,显式地建模缺失过程以及缺失数据本身之间的依赖关系,以期能更好地应用到实际问题。
- ACL用于低资源文本分类的离散潜在变量表示
本文探讨深层潜变量模型的离散潜变量模型,比较不同方法在处理复杂问题时表现的优劣,并在低资源文档和句子分类中展示了更好的结果,其中使用的 Hard EM 极具优势。
- EMNLP文本生成的隐式深度潜变量模型
本文提出了一种基于采样的变分分布表示方法,用于自然语言生成中 deep latent variable models,并通过最大化互信息的正则化来解决 posterior collapse 问题,进一步发展了 VAE,并在多个文本生成场景中 - 使用 Bits Back 编码和潜在变量进行实用的无损压缩
我们提出了一种名为 BB-ANS 的方案,用于在潜在变量模型中进行无损压缩,通过使用变分自动编码器模型来压缩 MNIST 数据集,实现了比标准方法更高的压缩率。
- MIWAE: 不完整数据的深度生成建模和插值
研究在深度潜变量模型(DLVM)中如何处理缺失数据的问题,提出了一种称为 MIWAE 的基于重要性加权自编码器(IWAE)的方法,可以最大化观察数据的对数似然的潜在下界,通过该方法实现单一和多重插值。在这些不完整的 MNIST 数字上训练的 - 强若不倒的分离因果机制:验证深度表达对干预健壮性的有效性
通过因果视角提供了一种新的方法来量化深度潜变量模型,并提供了一个高效的估算方法。
- 蒙特卡罗目标的双重重参数化梯度估计器
本文提出了一种称为双参数梯度估计器的方法,用于 Deep latent variable models 中的训练,并证明了该方法的可行性和有效性。
- ICML迭代摊销推断
我们提出了迭代推理模型,它通过反复编码梯度来学习执行推理优化,从而实现对标准推理模型在多个基准数据集的图像和文本上的超越。
- ICLR使用深度 Copula 信息瓶颈学习稀疏潜在表示
本论文提出了一种改进的深度信息瓶颈模型,通过应用 copula 变换解决了其短处,实现了特征的解耦和稀疏性,并在人工数据和真实数据上进行了评估。
- 利用深度潜变量模型的精确似然
本文探讨了深度潜变量模型中精确似然的一般性质及其在实践中的应用,特别是关于参数估计和缺失数据插补。作者介绍了一种基于条件似然的算法,用于深度潜变量模型中的缺失数据插补,并在多个数据集中对比了该算法和通常用于 DLVMs 的插补方案,结果表明 - ICML对抗性正则化自编码器
本文提出了一种基于 Wasserstein 自动编码器(WAE)的灵活方法,用于训练离散结构的深度潜变量模型,该方法扩展了 WAE 框架以对离散序列进行建模,并进一步探索了不同的先验知识以获得可控表示,最后展示了 WAE 中的潜变量可以进行 - ACL一种基于条件变分框架的对话生成模型
提出了一种框架,基于特定属性实现条件式回应生成,应用于两种不同的情景,结果表明模型在生成符合指定属性的响应方面具有潜力。
- ICML蒙特卡罗目标的变分推断
通过使用多样本重要性采样和无偏梯度估计器优化变分下界,从而提高潜变量模型的训练效果。