本文提出了一种基于广义高斯牛顿近似方法的贝叶斯神经网络预测方法,将原始预测模型线性化为广义线性模型(GLM)后,用于后验推理和预测中,解决了拉普拉斯近似方法下的欠拟合问题。在多个标准分类数据集上以及外部分布检测中得到了验证。
Aug, 2020
本文介绍了一种叫做 Laplace approximation (LA) 的 Bayesian 神经网络逼近算法,该算法可以实现更好的不确定性估计和模型选择,并通过实验证明其在计算成本上具有优势。
Jun, 2021
本文提出了一种新的方法(L2M),通过使用Adagrad等优化器已经估算出来的梯度二次矩来构造Laplace近似,而不需要计算曲率矩阵。该方法不需要改变模型或优化器,可以通过几行代码实现,并且不需要引入任何新的超参数。我们希望该方法能为深度神经网络的不确定性估计开辟新的研究方向。
Jul, 2021
该研究提出了一种基于贝叶斯模型选择的方便的、基于梯度的方法,用于选择数据增强,该方法被成功应用于图像数据集,以提高深度神经网络的泛化能力和数据效率。
Feb, 2022
探究Bayesian深度学习中用于估计模型不确定性的线性化拉普拉斯方法,并评估其在模型选择方面的假设,并提出了针对现代深度学习更好的适应性建议。
Jun, 2022
本文研究了线性化-Laplace近似在贝叶斯优化中的应用,探究了它在序列决策问题上的效用和灵活性,同时强调了可能出现的问题和局限性。
Apr, 2023
本研究介绍了一种基于贝叶斯模型选择和拉普拉斯逼近的方法,通过引入下界到边缘似然的线性化拉普拉斯逼近,用于选择深度学习的超参数优化,该方法可以使用随机梯度基于优化,并可以利用神经切向核估计。实验结果表明,该估计器可以显着加速基于梯度的超参数优化。
Jun, 2023
在该研究中,我们提出了一种利用拉普拉斯近似的替代框架,通过使用后验的曲率和网络预测来估计方差,既避免了计算和翻转黑塞矩阵的步骤,又能够在预训练网络中高效地进行。实验证明,相比于精确和近似黑塞矩阵,该方法表现相当,并具有良好的不确定性覆盖范围。
Mar, 2024
Bayesian深度学习的不一致性引起了越来越多的关注,温度调节或广义后验分布通常提供了解决这个问题的直接有效方法。本研究引入了一个统一的理论框架,将Bayesian不一致性归因于模型规范不当和先验不足,提出了广义Laplace近似方法来获得高质量的后验分布。
May, 2024
我们提出一种基于拉普拉斯近似和高斯过程先验的方法,通过直接在函数空间中施加先验来解决深度网络中整体性误差估计的问题,并通过矩阵自由线性代数的高度可扩展方法获得改进的结果。
Jul, 2024