BriefGPT.xyz
Jun, 2024
近似贝叶斯推断中的重参化不变性
Reparameterization invariance in approximate Bayesian inference
HTML
PDF
Hrittik Roy, Marco Miani, Carl Henrik Ek, Philipp Hennig, Marvin Pförtner...
TL;DR
Bayesian神经网络的近似后验在重新参数化下保持不变的问题被证明在线性化拉普拉斯近似中得到缓解。通过发展一种新的几何观点来解释线性化的成功,并利用Riemann扩散过程将这些重新参数化不变性扩展到原始神经网络预测,从而提出了一种简单的近似后验抽样算法,从而在实证中提高了后验拟合。
Abstract
Current
approximate posteriors
in
bayesian neural networks
(BNNs) exhibit a crucial limitation: they fail to maintain invariance under
reparamete
→