贝叶斯神经网络:基础知识
提出了一种新颖且轻量化的神经网络模型——自然参数网络(NPN),它允许使用任意指数族分布来建模神经元和权重,并且通过层之间的变换来生成与目标输出分布匹配的后验分布,实验结果表明,NPN可以在现实世界的数据集上实现最先进的性能。
Nov, 2016
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018
Bayesian Layers是一种用于神经网络不确定性快速实验的模块,能够通过确定性和随机函数的统一抽象进行组合,从而实现可伸缩性,并且能够捕获权重、激活和功能本身等方面的不确定性,同时支持反向传递不确定性,同时提供了代码示例,可用于Edward2概率编程语言中的概率程序。
Dec, 2018
本研究提出一种基于贝叶斯方法的神经网络架构参数估计方法,通过学习这些参数的具体分布来实现。研究表明,具有学习结构的正则网络在小数据集上可以更好地泛化,而完全随机化的网络可以更强健地处理参数初始化。与基于随机搜索的架构搜索不同,所提出的方法依赖于标准的神经变分学习,不需要对模型进行重新训练,从而最小化计算开销。
Jan, 2019
这篇研究论文探究了一种新型的贝叶斯深度学习,通过在网络结构上执行贝叶斯推断来加强深度网络的不确定性估计,并提出了一种有效的随机变分推断方法,以统一网络结构和权重的学习。
Nov, 2019
本文介绍了一种能够辅助任何传统神经网络,包括大型预训练模型,能够用较少的计算量来预测不确定性的架构——epinet。使用epinet,传统神经网络在预测标签上的表现优于包含数百个或更多粒子的非常大的许多集合,而且使用的计算资源和数据也大大降低了。
Jul, 2021
神经网络在各个问题领域取得了显著的表现,但其普适性受到其内在限制的阻碍,如预测上的过度自信、解释能力的欠缺和对对抗攻击的易受攻击性等。为了解决这些挑战,贝叶斯神经网络(BNNs)已成为传统神经网络的引人注目的扩展,在预测能力中整合了不确定性估计。本文系统地介绍了神经网络和贝叶斯推理的基本概念,阐明了它们对BNNs的协同集成的发展。目标受众包括具有贝叶斯方法背景但缺乏深度学习专业知识的统计学家,以及具有有限贝叶斯统计知识但精通深度神经网络的机器学习专家。我们概述了常用的先验知识,分析了它们对模型行为和性能的影响。此外,我们还深入探讨了在BNN研究领域内的先进主题,承认了不断进行的辩论和争议。通过提供对前沿发展的深入洞察,本文不仅为研究人员和实践者提供了BNNs方面的坚实基础,还展示了该动态领域的潜在应用。作为宝贵的资源,它促进对BNNs及其前景的理解,推动知识和创新的进一步发展。
Sep, 2023
这项研究探索了贝叶斯神经网络的概念,并提出了一种新颖的架构来显著减少网络的存储空间复杂性。此外,我们介绍了一种能够高效处理不确定性的算法,确保强健的收敛值而不会陷入局部极小值的问题,特别是在目标函数缺乏完美凸性的情况下。
Mar, 2024