自然参数网络:一类概率神经网络
这篇研究论文探究了一种新型的贝叶斯深度学习,通过在网络结构上执行贝叶斯推断来加强深度网络的不确定性估计,并提出了一种有效的随机变分推断方法,以统一网络结构和权重的学习。
Nov, 2019
本文提出了一种全新的方法,即基于贝叶斯推断框架通过闭式计算对感知机进行训练和预测,其中感知机的权重和预测被视作高斯随机变量,为常用的激活函数,如sigmoid或ReLU提供了预测感知机输出和学习权重的解析表达式,该方法不需要计算昂贵的梯度计算,进一步允许顺序学习。
Sep, 2020
本文介绍了贝叶斯神经网络中的概率层、架构和训练方法,并探讨了其扩展传统深度学习的方法,给出了 Tensorflow 的编程实现示例。然而,深层架构的不确定性考虑会让训练成本很高,而混合贝叶斯神经网络的策略可以很好地解决这个问题。
Jun, 2021
本文介绍一种基于节点的贝叶斯神经网络模型,通过增加隐变量将每个隐藏层节点与潜在随机变量相乘,以此模拟不同类型的数据扰动。通过增加隐变量的熵,实现了在协变量转移下,输入数据发生变化时提高隐式置信度的效果,同时还具备了对嘈杂训练数据具有鲁棒性的能力。
Jun, 2022
本文介绍了使用本地重新参数化技巧(LRT)和归一化流在 LBBNN 方法的变分后验分布上的应用,以改进预测性能并获得更稀疏的网络,通过两个模拟研究证明这些贝叶斯方法的使用可以得到更为实际的预测不确定性估计。
May, 2023
神经网络在各个问题领域取得了显著的表现,但其普适性受到其内在限制的阻碍,如预测上的过度自信、解释能力的欠缺和对对抗攻击的易受攻击性等。为了解决这些挑战,贝叶斯神经网络(BNNs)已成为传统神经网络的引人注目的扩展,在预测能力中整合了不确定性估计。本文系统地介绍了神经网络和贝叶斯推理的基本概念,阐明了它们对BNNs的协同集成的发展。目标受众包括具有贝叶斯方法背景但缺乏深度学习专业知识的统计学家,以及具有有限贝叶斯统计知识但精通深度神经网络的机器学习专家。我们概述了常用的先验知识,分析了它们对模型行为和性能的影响。此外,我们还深入探讨了在BNN研究领域内的先进主题,承认了不断进行的辩论和争议。通过提供对前沿发展的深入洞察,本文不仅为研究人员和实践者提供了BNNs方面的坚实基础,还展示了该动态领域的潜在应用。作为宝贵的资源,它促进对BNNs及其前景的理解,推动知识和创新的进一步发展。
Sep, 2023
深度神经网络(DNN)是各种计算机视觉任务的强大工具,但它们经常在可靠的不确定性量化方面遇到困难-这是实际应用的关键要求。贝叶斯神经网络(BNN)能够进行不确定性估计,但无法扩展到高度不稳定的大型DNNs,这些DNNs难以训练。为了解决这个挑战,我们引入了适应性贝叶斯神经网络(ABNN),这是一种简单且可扩展的策略,可以在后期以最小的计算和训练开销的方式将DNNs无缝转换为BNNs。ABNN通过简单的BNN适应层(附加到归一化层)和对预训练模型进行少量微调步骤,保留了DNNs的主要预测性能,并增强了它们的不确定性量化能力。我们在多个图像分类和语义分割任务的数据集上进行了大量实验证明,ABNN在不需要集成方法通常需要的计算预算的情况下实现了最先进的性能。
Dec, 2023