PAVI: 板块摊销变分推断
本文提出使用结构化 VI 族来有效处理大量人口研究数据中的潜变量参数空间,并阐述 Plate Amortization 的思想可以加快训练,提高表达力,精简参数,在神经影像学实例中进行了应用,取得了可扩展性和可表达性 VI 的重要进展。
Jun, 2022
Amortized variational inference (A-VI) is a general alternative to factorized (or mean-field) variational inference (F-VI) for approximating intractable posterior distributions, with conditions derived for achieving F-VI's optimal solution and strategies for expanding the domain of the inference function, while certain models like hidden Markov models and Gaussian processes cannot be matched by A-VI.
Jul, 2023
我们提出了一种半摊分解方法,使用摊分变分推断 (Amortized Variational Inference,AVI) 来初始化变分参数并运行随机变分推断 (Stochastic Variational Inference,SVI) 来细化它们,从而使推理网络和生成模型能够进行端到端的梯度优化训练,这种方法有助于在像文本生成这样的问题上使用丰富的生成模型并避免训练 VAE 时产生的后验崩溃现象,实验证明这种方法在标准的文本和图像数据集上胜过强有力的自回归和变分基线。
Feb, 2018
本文提出了一种基于深度神经网络参数化的先验分布方法,通过学习贝叶斯逆映射实现了实时推理。经过基准问题的验证,该方法的后验估计与马尔可夫链蒙特卡罗方法的对应结果一致,并在前向传递神经网络的代价下提供了观测的后验参数。
May, 2023
在本文中,我们提出了一种更数据高效的概率元学习方法,通过对贝叶斯神经网络的推理进行逐数据点摊销,引入了摊销伪观测变分推理贝叶斯神经网络(APOVI-BNN)。我们展示了在我们的摊销方案下获得的近似后验与传统变分推理获得的近似后验在质量上是相似或更好的,尽管摊销推理是在单个前向传递中执行的。然后,我们讨论了如何将 APOVI-BNN 看作神经过程家族的新成员,以此作为激励使用神经过程训练目标,以实现在复杂问题上更好的预测性能。最后,我们评估了 APOVI-BNN 在一维回归问题和更复杂的图像完成设置中与其他概率元模型的预测性能,在训练数据有限的情况下,我们的模型在同类模型中表现最好。
Sep, 2023
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本文提出了一种双重摊销变分推理过程来解决传统推理技术训练的生成模型在适应新分布时遇到的困难,通过学习可转移潜在表示,在不同的概率模型之间推广,特别地,应用于图像分布上,该方法在 MNIST 和 NORB 的下游图像分类任务中显著优于基线(分别达 10-50% 和 10-35% 的准确率提升)
Feb, 2019
本论文提出了使用摊销方法的变分推断,使用共享参数同时表示所有本地分布,类似于使用完整高斯联合分布,但可在数个数量级更大的数据集上实现,速度大大快于使用结构化变分分布。
Nov, 2021