贝叶斯神经网络中可行的函数空间变分推理
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023
本文提出一种基于变分推断的高维深度学习不确定性量化方法,使用高斯过程将贝叶斯卷积神经网络先验和变分族相结合,为任意有监督的学习任务提供了预测不确定性估计,同时提供了快速训练的方法。此外,该文还提供了构建回归损失函数的充分条件,使其概率对应物与 aleatoric 不确定性量化相容。
Mar, 2020
连续学习方法通过顺序贝叶斯推断模型对神经网络进行优化,使得神经网络对新任务的适应性更好、拥有更灵活的变分分布和更有效的正则化,从而实现更好的预测准确性。
Dec, 2023
本研究通过对 10 种常见的推断方法在回归和分类任务中的预测不确定性估计结果进行实证比较,发现常用的指标可能会导致误导,并表明为了得到高质量的后验逼近并不一定需要具有捕获后验结构的推断创新。
Jun, 2019
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
本文提出直接近似贝叶斯模型函数空间或预测后验分布的方法,并指出了使用 Kullback-Leibler divergence 方法的优劣,提出了基于 Bayesian linear regression 的 benchmark 方法来评估预测质量和后验近似质量。
Nov, 2020
本文扩展了 Factorised Neural Relational Inference 模型,加入了输出每个相空间向量部分的均值和标准差以及相应的损失函数,以解决神经网络在多交互轨迹重建中缺乏输出不确定性估计的问题。本文研究了多种损失函数,包括凸函数和 Bayesian 方法,并且我们发现在考虑不确定性时,变量的物理意义非常重要,且存在难以避免的病态局部最小值问题。
Jun, 2020
Bayesian 神经网络以贝叶斯理念结合了神经网络的预测性能和对安全关键系统和决策制定至关重要的原则性不确定性建模。但是后验不确定性的估计取决于先验的选择,而在权重空间中找到信息量丰富的先验证明非常困难。为了解决这个问题,我们使用了一种基于广义 VI 的方法结合正则化的 KL 散度,可以被认为是 BNN 中具有高斯过程先验的函数空间推断的首个良定义变分目标。实验证明,我们的方法在合成数据和小型现实世界数据集上具备 GP 先验指定的特性,并与基于函数和权重空间先验的 BNN 基线相比,在回归、分类和外分布检测方面提供了有竞争力的不确定性估计。
Jun, 2024
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018
本文为解决 Bayesian 深度学习中的先验分布选择困难性问题,提出了一种基于 Gaussian processes 的新颖的功能先验分布匹配框架,该框架可通过 Markov chain Monte Carlo 方法进行可扩展的先验分布采样,从而显著提高了性能。
Nov, 2020