贝叶斯神经网络中的结构部分随机性
本文研究采用贝叶斯神经网络随机化所有参数的好处,并发现在某种程度上,全随机结构可能是不必要的。我们证明表达能力强的预测分布只需要很少的随机性,部分随机网络只需具有 $n$ 个随机操作即可成为 $n$ 维预测问题的通用概率预测器。在经验调查中,我们发现在八个数据集中,部分随机网络比完全随机网络表现更好,且有时甚至可以匹敌或超越其性能,尽管它们的内存成本较低。
Nov, 2022
本文提出部分随机性无限深度贝叶斯神经网络 (Partially Stochastic Infinitely Deep Bayesian Neural Networks),将部分随机性融入无限深度神经网络框架中,并通过改进现有的架构,提高了训练和推理的计算效率以及稳健性、不确定性量化和内存效率。作者在实验中通过多个任务的经验评估证明了该架构在下游任务性能和不确定性量化方面优于现有架构,并且更加高效。
Feb, 2024
该论文研究了现代深度神经网络的权重分布,探讨了深度贝叶斯神经网络后验分布的优化途径、后验质量和不确定性量化的关系、后验中模态的影响和可视化方法,以及权重空间对后验的对称性,并发布了大规模检查点数据集和代码,以帮助改进对贝叶斯后验的理解。
Oct, 2023
本文介绍了一种基于 Monte Carlo dropout、DropConnect 和一种新的非参数 dropout 的随机神经网络集成方法,通过变分推断将随机集合形式化为分布族,并训练以近似贝叶斯后验,我们在玩具问题和 CIFAR 图像分类上进行评估,结果表明随机集成相对于贝叶斯推断的其他流行基线提供了更准确的后验估计。
Dec, 2022
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
这篇研究论文探究了一种新型的贝叶斯深度学习,通过在网络结构上执行贝叶斯推断来加强深度网络的不确定性估计,并提出了一种有效的随机变分推断方法,以统一网络结构和权重的学习。
Nov, 2019
通过统计学习理论的通用结论,我们提出了一个模型,即通过采样网络结构的后验分布,突触可塑性和神经元网络可以进行概率推断,这个模型比现有的模型更好地解释了网络可塑性的随机特性对神经可塑性的影响。
Apr, 2015
本文提出了一种基于贝叶斯方法的加权随机块模型,可以用于推断加权网络的大规模模块结构,方法为无参数方法,使用数据来推断模型中的群组数量和其他维度,并提供了不同种类的边权(如连续或离散、有符号或无符号、有界或无界等)以及任意权重转换的综合处理。作者还描述了无监督模型选择方法来选择最佳网络描述,并且将该方法应用于各种实际加权网络,例如全球移民、国会中的投票模式和人类大脑中的神经连接。
Aug, 2017
本研究提出两种创新方法以将变分贝叶斯转化为贝叶斯神经网络的稳健推理工具:一种新的确定性方法用于逼近神经网络的矩,消除了梯度方差;一种参数的分层先验和自动选择先验方差的新的经验贝叶斯程序。将这两种方法结合起来,所得到的方法高效而稳健,在异方差回归应用中表现出了很好的预测性能。
Oct, 2018