简单分层模型的摊余变分推断
Amortized variational inference (A-VI) is a general alternative to factorized (or mean-field) variational inference (F-VI) for approximating intractable posterior distributions, with conditions derived for achieving F-VI's optimal solution and strategies for expanding the domain of the inference function, while certain models like hidden Markov models and Gaussian processes cannot be matched by A-VI.
Jul, 2023
本文提出了一种基于收紧方法的层次模型变分下界的变分方法,该方法可以自然地使用子采样以获得无偏梯度,并在较低维度空间中独立地应用紧缩较低下界的方法,以获得比相关基线更好的结果和更准确的后验近似。
Mar, 2022
提出了一种新的摊销变分推断方案来处理实证贝叶斯元学习模型,使用变分自编码器方法在有限的训练数据上学习模型参数的先验分布,我们的框架建议在模型参数的条件先验和变分后验分布之间共享相同的摊销推断网络,相比于 Monte-Carlo 近似的早期工作,我们的变分方法避免了条件先验的崩溃并保留了模型参数的不确定性,并在 miniImageNet、CIFAR-FS 和 FC100 数据集上进行了评估,证明了它比以前的方法具有更好的性能。
Aug, 2020
本文提出使用结构化 VI 族来有效处理大量人口研究数据中的潜变量参数空间,并阐述 Plate Amortization 的思想可以加快训练,提高表达力,精简参数,在神经影像学实例中进行了应用,取得了可扩展性和可表达性 VI 的重要进展。
Jun, 2022
本文提出了一种双重摊销变分推理过程来解决传统推理技术训练的生成模型在适应新分布时遇到的困难,通过学习可转移潜在表示,在不同的概率模型之间推广,特别地,应用于图像分布上,该方法在 MNIST 和 NORB 的下游图像分类任务中显著优于基线(分别达 10-50% 和 10-35% 的准确率提升)
Feb, 2019
本文提出了一种基于深度神经网络参数化的先验分布方法,通过学习贝叶斯逆映射实现了实时推理。经过基准问题的验证,该方法的后验估计与马尔可夫链蒙特卡罗方法的对应结果一致,并在前向传递神经网络的代价下提供了观测的后验参数。
May, 2023
通过交替生成和训练条件生成模型,本研究设计出一种迭代框架来提高基于贝叶斯逆问题的后验分布的分析逼近,从而实现迭代改善逼近效果的自动化过程,并检验了在人脑超声成像中的应用情况。
May, 2023
我们提出了一种半摊分解方法,使用摊分变分推断 (Amortized Variational Inference,AVI) 来初始化变分参数并运行随机变分推断 (Stochastic Variational Inference,SVI) 来细化它们,从而使推理网络和生成模型能够进行端到端的梯度优化训练,这种方法有助于在像文本生成这样的问题上使用丰富的生成模型并避免训练 VAE 时产生的后验崩溃现象,实验证明这种方法在标准的文本和图像数据集上胜过强有力的自回归和变分基线。
Feb, 2018