深度神经网络中的贝叶斯后验到底有多好?
本文讨论贝叶斯神经网络在图片分类上的应用,发现此类应用使用的是错误的似然度。作者开发了一个描述 “筛选” 过程的生成模型,并与之前使用的调整后的后验概率似然度进行了基于贝叶斯思想的对比。
Aug, 2020
研究表明, 使用全批处理的哈密顿蒙特卡罗方法可以提高贝叶斯神经网络的性能,并证明模型中选择的先验分布对性能的影响较小,但相比于深度集成、SGLD 等计算代价较小的方法,HMC 呈现出更接近于精确后验分布的预测分布;同时,研究发现贝叶斯神经网络在领域转移方面表现较差。
Apr, 2021
本文探讨了后验温度的调整在贝叶斯神经网络中的作用以及先验的影响,研究发现,在高质量的分类数据集如 MNIST 或 CIFAR 中,经常使用的先验能够显著地高估标签的不确定性。研究在高斯过程回归中发现,任何正数的温度都对应于一个经过修改的先验下的有效后验,而调整后验温度直接类比于经验贝叶斯。当应用于分类任务时,调整先验并不直接等同于调整后验温度,但是降低后验温度可以得到更好地反映新增训练样本信息的模型。因此,虽然冷后验并不总是对应于精确的推理过程,但我们认为,它们可能更好地反映了我们真实的先验信念。
Jul, 2020
通过引入易于扩展的 PyTorch 库 posteriors,我们在理论上具有吸引力的贝叶斯学习与现代机器学习模型的计算挑战得以克服,从而使得贝叶斯学习在大规模数据和参数范围下变得可访问且可扩展;通过在 posteriors 实现中引入一种温度设定的随机梯度马尔可夫链蒙特卡洛方法,平稳过渡到优化,并揭示了深度集成的一种次要修改,以确保它们对贝叶斯后验具有渐进无偏性;通过包括对冷后验效应的研究和对大型语言模型的应用实验来展示和比较贝叶斯近似的实用性。
May, 2024
深度神经网络的鲁棒性不确定性量化是许多深度学习应用的重要需求,贝叶斯神经网络是建模深度神经网络不确定性的一种有前景的方法,但从神经网络的后验分布中生成样本仍然是一个重大挑战。在本文中,我们展示了这些方法在采样分布时可能存在显著偏差,即使在步长趋近于零且批量大小足够大的情况下。
Mar, 2024
贝叶斯方法在深度神经网络中应用广泛,因为它通过边缘化取代优化,能够提高模型的校准性和准确性,并利用神经网络结构中的先验偏好来帮助泛化。此外,最近的贝叶斯深度学习实践进展也提高了模型的准确性、校准性和可伸缩性。
Jan, 2020
本文探讨了应用于深度神经网络中的贝叶斯参数估计问题,提出了一种压缩 Monte Carlo 近似方法的新算法,与贝叶斯神经网络中的其他两种方法作了对比,证明了该算法不仅表现更优,而且更简单易于实现且测试所需运算资源更少。
Jun, 2015
图像分类中使用的基准数据集往往具有非常低的标签噪声。当贝叶斯神经网络在这些数据集上进行训练时,它们往往会欠拟合,错误地表示数据的不确定性。一种常见的解决方法是通过冷却后验,这提高了对训练数据的拟合,但从贝叶斯的角度来解释具有挑战性。我们探讨了是否可以通过具有信心诱导的先验分布来替代后验调温。首先,我们介绍了一种实际可采样且几乎与冷后验性能相匹配的 “DirClip” 先验。其次,我们介绍了一种直接在温度趋近于零时近似冷似然函数但难以采样的 “信心先验”。最后,我们提供了关于信心诱导先验的几个一般性见解,例如它们何时可能发散以及如何通过微调来减轻数值不稳定性。
Mar, 2024
本研究旨在探索深度学习模型的不确定性量化方法,并考虑基于贝叶斯推理的模型在 OoD 检测中的表现,结果显示在某些情况下,这种模型略高于传统的深度神经网络,对于对新输入的敏感性的原因进行研究,并对对抗噪声鲁棒性的影响进行了研究。
Sep, 2020