PAVI: 平板折旧变分推断
在大规模人口研究中,通过设计结构化的变分推断方法,使用概率生成模型和参数分布,实现贝叶斯推断,加快了训练速度和收敛速度,为可扩展性和表达性变分推断迈出了重要一步。
Aug, 2023
Amortized variational inference (A-VI) is a general alternative to factorized (or mean-field) variational inference (F-VI) for approximating intractable posterior distributions, with conditions derived for achieving F-VI's optimal solution and strategies for expanding the domain of the inference function, while certain models like hidden Markov models and Gaussian processes cannot be matched by A-VI.
Jul, 2023
本文提出了一种基于深度神经网络参数化的先验分布方法,通过学习贝叶斯逆映射实现了实时推理。经过基准问题的验证,该方法的后验估计与马尔可夫链蒙特卡罗方法的对应结果一致,并在前向传递神经网络的代价下提供了观测的后验参数。
May, 2023
我们提出了一种半摊分解方法,使用摊分变分推断 (Amortized Variational Inference,AVI) 来初始化变分参数并运行随机变分推断 (Stochastic Variational Inference,SVI) 来细化它们,从而使推理网络和生成模型能够进行端到端的梯度优化训练,这种方法有助于在像文本生成这样的问题上使用丰富的生成模型并避免训练 VAE 时产生的后验崩溃现象,实验证明这种方法在标准的文本和图像数据集上胜过强有力的自回归和变分基线。
Feb, 2018
本文综述了变分推断中的最新趋势,介绍了标准的均值场变分推断,然后回顾了最近的进展,包括可扩展的 VI,通用的 VI,准确的 VI 以及摊余的 VI,并提供有关未来研究方向的总结。
Nov, 2017
本文提出了一种双重摊销变分推理过程来解决传统推理技术训练的生成模型在适应新分布时遇到的困难,通过学习可转移潜在表示,在不同的概率模型之间推广,特别地,应用于图像分布上,该方法在 MNIST 和 NORB 的下游图像分类任务中显著优于基线(分别达 10-50% 和 10-35% 的准确率提升)
Feb, 2019
在本文中,我们提出了一种更数据高效的概率元学习方法,通过对贝叶斯神经网络的推理进行逐数据点摊销,引入了摊销伪观测变分推理贝叶斯神经网络(APOVI-BNN)。我们展示了在我们的摊销方案下获得的近似后验与传统变分推理获得的近似后验在质量上是相似或更好的,尽管摊销推理是在单个前向传递中执行的。然后,我们讨论了如何将 APOVI-BNN 看作神经过程家族的新成员,以此作为激励使用神经过程训练目标,以实现在复杂问题上更好的预测性能。最后,我们评估了 APOVI-BNN 在一维回归问题和更复杂的图像完成设置中与其他概率元模型的预测性能,在训练数据有限的情况下,我们的模型在同类模型中表现最好。
Sep, 2023
本论文提出了使用摊销方法的变分推断,使用共享参数同时表示所有本地分布,类似于使用完整高斯联合分布,但可在数个数量级更大的数据集上实现,速度大大快于使用结构化变分分布。
Nov, 2021
提出了一种新的摊销变分推断方案来处理实证贝叶斯元学习模型,使用变分自编码器方法在有限的训练数据上学习模型参数的先验分布,我们的框架建议在模型参数的条件先验和变分后验分布之间共享相同的摊销推断网络,相比于 Monte-Carlo 近似的早期工作,我们的变分方法避免了条件先验的崩溃并保留了模型参数的不确定性,并在 miniImageNet、CIFAR-FS 和 FC100 数据集上进行了评估,证明了它比以前的方法具有更好的性能。
Aug, 2020