May, 2023
利用潜在二元变量和归一化流稀疏化贝叶斯神经网络
Sparsifying Bayesian neural networks with latent binary variables and normalizing flows
Lars Skaaret-Lund, Geir Storvik, Aliaksandr Hubin
TL;DR本文介绍了使用本地重新参数化技巧(LRT)和归一化流在 LBBNN 方法的变分后验分布上的应用,以改进预测性能并获得更稀疏的网络,通过两个模拟研究证明这些贝叶斯方法的使用可以得到更为实际的预测不确定性估计。