贝叶斯神经网络中的 “中间” 不确定性
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
在这篇论文中,我们提出了一个基于函数空间变分推断的可扩展函数空间变分推断方法,该方法明确地将贝叶斯推断应用于神经网络,并允许结合先验信息以产生可靠的预测不确定性评估。我们展示了该方法在一系列预测任务上的最新不确定性估计和预测性能,并证明其在安全关键的医学诊断任务中表现出色。
Dec, 2023
该论文介绍了 Bayes by Hypernet,一种新的变分逼近方法,通过将超网络视为隐式分布来解决现代神经网络在未见过的、嘈杂的或标记错误的数据上过于自信,并且不能产生有意义的不确定性度量的短板,本文在 MNIST 和 CIFAR5 任务中表现优异且最具鲁棒性,同时满足复杂度、可扩展性和准确度的要求。
Nov, 2017
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023
本文扩展了 Factorised Neural Relational Inference 模型,加入了输出每个相空间向量部分的均值和标准差以及相应的损失函数,以解决神经网络在多交互轨迹重建中缺乏输出不确定性估计的问题。本文研究了多种损失函数,包括凸函数和 Bayesian 方法,并且我们发现在考虑不确定性时,变量的物理意义非常重要,且存在难以避免的病态局部最小值问题。
Jun, 2020
本研究通过对 10 种常见的推断方法在回归和分类任务中的预测不确定性估计结果进行实证比较,发现常用的指标可能会导致误导,并表明为了得到高质量的后验逼近并不一定需要具有捕获后验结构的推断创新。
Jun, 2019
提出了一种用基于贝叶斯信任网络和蒙特卡罗采样的方法来对神经网络进行不确定性估计,这个方法具有与神经网络结构和任务无关,不需要优化进程的更改,能够应用于已经训练好的结构,有效地提高了准确性。
Jul, 2019
该研究利用变分推断来近似后验推断高度超参数化的神经网络,研究发现当单层贝叶斯神经网络中的隐藏单元数量趋近于无穷大时,平均场变分推断下的函数空间后验均值实际上收敛于零,完全忽略数据,这与真后验收敛于高斯过程相反。这项工作提供了对变分推断中 KL 散度过度正则化的洞见。
Jun, 2021