基于后验正则化的贝叶斯神经网络融合软硬知识约束
提出利用贝叶斯方法学习深度神经网络中的节点稀疏贝叶斯神经网络模型,证明其后验浓度速率接近最小最优和适应真实模型的平滑程度,并开发了一种新的 MCMC 算法,以实现节点稀疏 BNN 模型的贝叶斯推断。
May, 2023
深度神经网络(DNN)是各种计算机视觉任务的强大工具,但它们经常在可靠的不确定性量化方面遇到困难 - 这是实际应用的关键要求。贝叶斯神经网络(BNN)能够进行不确定性估计,但无法扩展到高度不稳定的大型 DNNs,这些 DNNs 难以训练。为了解决这个挑战,我们引入了适应性贝叶斯神经网络(ABNN),这是一种简单且可扩展的策略,可以在后期以最小的计算和训练开销的方式将 DNNs 无缝转换为 BNNs。ABNN 通过简单的 BNN 适应层(附加到归一化层)和对预训练模型进行少量微调步骤,保留了 DNNs 的主要预测性能,并增强了它们的不确定性量化能力。我们在多个图像分类和语义分割任务的数据集上进行了大量实验证明,ABNN 在不需要集成方法通常需要的计算预算的情况下实现了最先进的性能。
Dec, 2023
这篇论文介绍了贝叶斯熵神经网络(BENN),它是基于最大熵原理的框架,旨在对贝叶斯神经网络(BNN)的预测施加约束,以实现不确定性量化和约束满足,实验结果表明 BENN 在各种应用中展现出明显的改进,并展示了与当代约束深度学习方法相当的竞争性能。
Jul, 2024
使用贝叶斯方法进行深度神经网络(BNNs)训练在广泛应用中受到了极大关注,并且已被有效地应用于各种情况。然而,大多数关于对 BNNs 的后验集中性质的研究仅在具有稀疏或重尾先验的 BNN 模型中证明结果。令人惊讶的是,目前还没有关于使用最常用的高斯先验进行 BNNs 的理论结果存在。这种理论缺乏是由于没有非稀疏且具有有界参数的深度神经网络(DNNs)的近似结果。在本文中,我们提出了一个新的近似理论,用于具有有界参数的非稀疏 DNNs。此外,基于该近似理论,我们表明具有非稀疏一般先验的 BNNs 可以以接近最小最优后验集中速率接近真实模型。
Mar, 2024
本文提出了一种将先验知识通过外部摘要信息纳入贝叶斯神经网络中的简单方法,通过引入 Dirichlet 过程并推导相应的总结证据下限,将可用的摘要信息作为增广数据建模。使用本方法可以增强模型对分类任务难度和类别分布的了解,并在准确性、不确定性校准和对数据损坏的鲁棒性等方面表现良好。
Jul, 2022
神经网络在各个问题领域取得了显著的表现,但其普适性受到其内在限制的阻碍,如预测上的过度自信、解释能力的欠缺和对对抗攻击的易受攻击性等。为了解决这些挑战,贝叶斯神经网络(BNNs)已成为传统神经网络的引人注目的扩展,在预测能力中整合了不确定性估计。本文系统地介绍了神经网络和贝叶斯推理的基本概念,阐明了它们对 BNNs 的协同集成的发展。目标受众包括具有贝叶斯方法背景但缺乏深度学习专业知识的统计学家,以及具有有限贝叶斯统计知识但精通深度神经网络的机器学习专家。我们概述了常用的先验知识,分析了它们对模型行为和性能的影响。此外,我们还深入探讨了在 BNN 研究领域内的先进主题,承认了不断进行的辩论和争议。通过提供对前沿发展的深入洞察,本文不仅为研究人员和实践者提供了 BNNs 方面的坚实基础,还展示了该动态领域的潜在应用。作为宝贵的资源,它促进对 BNNs 及其前景的理解,推动知识和创新的进一步发展。
Sep, 2023
本文介绍了使用本地重新参数化技巧(LRT)和归一化流在 LBBNN 方法的变分后验分布上的应用,以改进预测性能并获得更稀疏的网络,通过两个模拟研究证明这些贝叶斯方法的使用可以得到更为实际的预测不确定性估计。
May, 2023
本研究旨在利用模型不确定性作为 BNN 结构学习的框架,提出了可与模型空间约束结合的可扩展变分推理方法,试图在模型和参数的联合空间中进行推理,进而实现结构和参数不确定性的组合,并在基准数据集上进行了实验,表明使方法比普通 Bayesian neural networks 更加稀疏,但得到了与竞争模型相当的精度结果。
May, 2023