重要性加权和变分推断
本文提出了使用退火重要性采样(annealed importance sampling)来学习深度生成模型的方法,该方法是变分推断(variational inference)和马尔可夫链蒙特卡罗(Markov chain Monte Carlo)两种主要的近似方法的结合,通过实验表明该方法比重要性加权自编码器(importance weighted auto-encoders)更好地建模了概率密度,并且通过权衡计算和模型精度的关系提高模型准确性的同时不增加内存成本。
Jun, 2019
本论文引入了分层抽样的方法,实现了对混合分布的自动微分变分推断(ADVI); 并且通过建立重要性加权自编码器(IWAE)类似的较紧下界,进一步验证了该方法相较于传统ELBO或IWAE的优势,特别是在latents变量中有多峰分布时,表现出更高的准确性和更好的校准性。
Mar, 2020
提出了一种结合优化和抽样技巧的近似贝叶斯推断方法,通过最小化前向KL散度构建了一种IS建议分布,实验证明该方法在现实数据上与变分提升和MCMC相竞争。
Jun, 2021
我们提出了一种可以与其他变分参数一起学习的代理似然函数,以此支持两种算法类别优势的组合,此算法允许用户在推理保真度和计算成本之间进行直观权衡,适用于概率编程框架中黑盒子推理。
Dec, 2021
本文重访重要性加权变分推断理论,提供了一系列的数理统计理论证明,阐述了蒙特卡罗求解的样本数量与变分界限的紧度之间的关系,以及负相关性可以降低变分差距等内容,这有助于更好地研究拉普拉斯近似、新型均值场推断等领域。
Jan, 2022
本文提出了一种基于收紧方法的层次模型变分下界的变分方法,该方法可以自然地使用子采样以获得无偏梯度,并在较低维度空间中独立地应用紧缩较低下界的方法,以获得比相关基线更好的结果和更准确的后验近似。
Mar, 2022
通过最小化前向χ^2散度来优化建议分布以增强对数似然估计,我们引入了一种称为变分重要性抽样(VIS)的新方法,实现了直接估计和最大化对数似然。将VIS应用于各种流行的潜变量模型,包括混合模型、变分自编码器和部分可观测广义线性模型,结果显示我们的方法在对数似然和模型参数估计方面始终优于最先进的基准模型。
Nov, 2023