通过蒙特卡洛边缘化学习分布
通过利用自动编码器将图像编码为高维潜空间,并使用 Monte-Carlo 边缘化和 Kullback-Leibler 散度损失来拟合 Gaussian Mixture Models (GMM) 的高斯成分和学习数据分布,从而实现图像聚类,并展示在高维空间中,相比于经典的 Expectation-Maximization (EM) 算法,MCMarg 和 KL 散度能够极大地缓解聚类算法面临的困难,实验证明了分布学习在利用 GMM 进行高维图像聚类方面的潜力。
Aug, 2023
介绍了一种新的算法,该算法通过再参数化、马尔可夫链蒙特卡罗和变分方法相结合,构建了一种非常灵活的隐式变分分布,避免了计算 Log 密度比率,因此易于适用于任意连续且可微模型,并且演示了拟合香蕉形状分布和训练变分自动编码器的应用。
Aug, 2017
研究纵观了变分自编码器(VAEs)的训练方法,提出了一种基于熵的自适应方法来优化更紧的变分下界,该方法能适应潜在层次变量模型中复杂的后验几何结构,并获得更高的生成度量。
Aug, 2023
通过 Markov chain Monte Carlo(MCMC)与 varational inference(VI)相结合,并引入 variational contrastive divergence(VCD)作为新的 divergence,可以更好的预测潜在变量模型。
May, 2019
该研究通过引入一种新的变分方法,解决了计算成本高的蒙特卡洛方法在估计 Dirichlet 混合模型中 Kullback-Leibler 散度的问题,从而显著提高了计算效率,验证结果表明该方法优于传统的蒙特卡洛方法,为多样的 DMM 模型的快速探索和结构数据的统计分析提供了新的途径。
Mar, 2024
本文介绍了一种新的正则化方法 mutual posterior-divergence regularization,用于控制潜空间的几何结构,从而实现有意义的表征学习,并在三个图像基准数据集上取得了良好的表现。
Jan, 2019
为了在监督学习任务中很好地推广训练数据,我们应该将不变性纳入模型结构中,并使用边际似然进行学习,我们通过高斯过程模型演示了这一点,并提出了一种包含不变性的高斯过程的变分推断方案。
Aug, 2018
本论文研究了生成性对抗网络(GANs)的收敛速率和损失函数,探讨了在不同参数和非参数条件下的目标分布,都能通过 GANs 进行逼近, 建立了基于生成器和判别器的正则化理论,提出了生成器 - 判别器对正则化的新概念,为分布估计提供了有效的统计保证。
Nov, 2018
介绍了一种名为边缘化模型(MaMs)的新的高维离散数据生成模型,通过明确建模所有诱导边际分布,提供可扩展和灵活的生成建模方法,具有可计算的似然度,并以单次神经网络正向传递的方式快速评估任意边际概率。该模型适用于特定概率(由未归一化(对数)概率函数,如能量函数或奖励函数指定)与学习分布匹配的能量训练任务,并在多个离散数据分布上展示出了显著的性能优势。
Oct, 2023