广义拉普拉斯近似
在该研究中,我们提出了一种利用拉普拉斯近似的替代框架,通过使用后验的曲率和网络预测来估计方差,既避免了计算和翻转黑塞矩阵的步骤,又能够在预训练网络中高效地进行。实验证明,相比于精确和近似黑塞矩阵,该方法表现相当,并具有良好的不确定性覆盖范围。
Mar, 2024
本文介绍了一种基于高斯混合模型后验的预测方法,通过对独立训练的深度神经网络的拉普拉斯近似加权求和,可以缓解深度神经网络对离群值的过于自信预测问题,并在标准不确定性量化基准测试中与最先进的基准进行了比较。
Nov, 2021
本研究评估了贝叶斯方法在深度学习中用于不确定性估计的方法,重点关注广泛应用的 Laplace 近似及其变体。我们的研究发现,传统的拟合 Hessian 矩阵的方法对于处理超出分布的检测效率产生了负面影响。我们提出了一种不同的观点,认为仅关注优化先验精度可以在超出分布检测中产生更准确的不确定性估计,并保持适度的校准度。此外,我们证明了这种特性与模型的训练阶段无关,而是与其内在性质相关。通过广泛的实验评估,我们证实了我们简化方法在超出分布领域中优于传统方法的优越性。
Dec, 2023
本文介绍了一种叫做 Laplace approximation (LA) 的 Bayesian 神经网络逼近算法,该算法可以实现更好的不确定性估计和模型选择,并通过实验证明其在计算成本上具有优势。
Jun, 2021
本文提出了广义后验具有集中性,渐进正态性 (Bernstein-von Mises),A Laplace 近似正确,以及渐近正确的频率覆盖率的充分条件,并将其应用于广义似然的广义后验中,包括一般的伪似然,高斯马尔科夫随机场伪似然,完全观察的 Boltzmann 机器伪似然,Ising 模型伪似然,Cox 比例风险偏似然,以及基于中值的位置鲁棒推断的似然。此外,我们展示了如何使用我们的结果轻松建立指数族和广义线性模型的标准后验的渐进性质。
Jul, 2019
Bayesian 神经网络的近似后验在重新参数化下保持不变的问题被证明在线性化拉普拉斯近似中得到缓解。通过发展一种新的几何观点来解释线性化的成功,并利用 Riemann 扩散过程将这些重新参数化不变性扩展到原始神经网络预测,从而提出了一种简单的近似后验抽样算法,从而在实证中提高了后验拟合。
Jun, 2024
本文提出了一种基于广义高斯牛顿近似方法的贝叶斯神经网络预测方法,将原始预测模型线性化为广义线性模型(GLM)后,用于后验推理和预测中,解决了拉普拉斯近似方法下的欠拟合问题。在多个标准分类数据集上以及外部分布检测中得到了验证。
Aug, 2020
我们对调和后验进行了详细研究,揭示了许多关键但以前未讨论过的问题。与以往结果相反,我们首先证明,在逼真的模型和数据集以及对后验的紧密控制情况下,随机性一般情况下不会提高测试准确性。最低温度通常是最优的。人们可能认为,带有某些随机性的贝叶斯模型至少可以在校准方面获得改进。然而,我们通过实证研究表明,当获得增益时,这是以降低测试准确性的代价为代价的。然后,我们讨论了使用贝叶斯模型来定位频率主义指标的需求的最优温度参数 λ 的优化目标的一个简单解释。与之前的作品相反,最后我们通过 PAC-Bayesian 分析表明,温度参数 λ 不能简单地被视为修正了先验或似然的错误设置。
Sep, 2023
本文探讨了以 Stein discrepancy 作为损失函数的广义贝叶斯推断,以规避似然函数中存在难以计算的标准化常量,并展示了其一致性、渐近正常性和偏差稳健性,同时提供了针对各种难以计算分布的数值实验,包括基于核的指数族模型和非高斯图模型的应用。
Apr, 2021