本文介绍了一种基于 Markov 过程的 mean field variational approximation 方法,用于近似描述 Continuous-time Bayesian networks 中的概率分布,并提供了较好的推断和学习效果。
May, 2012
本文通过机器学习中的变分推断方法近似计算难以计算的概率密度,特别地,本文对变分推断的思想和现代VI研究中的重要问题进行了全面的讨论。
Jan, 2016
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018
通过对高斯均值场变分推理方法训练的深层贝叶斯神经网络的后验标准差进行矩阵低秩分解,我们可以将变分推理方法更紧凑地参数化,并提高其信噪比,从而加速其收敛速度。
Feb, 2020
该研究利用变分推断来近似后验推断高度超参数化的神经网络,研究发现当单层贝叶斯神经网络中的隐藏单元数量趋近于无穷大时,平均场变分推断下的函数空间后验均值实际上收敛于零,完全忽略数据,这与真后验收敛于高斯过程相反。这项工作提供了对变分推断中KL散度过度正则化的洞见。
Jun, 2021
针对具有无界方差的神经网络权重的后验推断问题,提供了一种可解释且计算高效的条件高斯表达方法。该方法可利用高斯过程机器进行可行的后验推断和不确定性量化。
May, 2023
本文基于函数分析和优化工具,对变分推断(VI)方法中的坐标上升变分推断(CAVI)算法进行收敛性分析,提出基于广义相关性的算法收缩速率测度,并在多个实例中应用了该理论,得出了算法收缩速率的明确上界。
Jun, 2023
基于无限宽度神经网络的高斯过程,并结合内核和推理方法,构建了一个场论的形式体系,研究了无限宽度网络的泛化性质,并从输入数据的统计性质得到了泛化性质的提取。
Jul, 2023
深度学习和贝叶斯深度学习使用变分推断和边缘似然来进行后验推理和模型选择。
Jan, 2024
本研究通过仅使用3个确定性样本来传播统计矩,实现了对任意非线性网络层的统计矩传播,从而使得少样本变分推断成为可能,并将此方法应用于一种新的非线性激活函数,用于向Bayesian神经网络的输出节点注入物理先验信息。
May, 2024