即使轻微地贝叶斯化,也能修复ReLU网络中的过度自信
通过在 CNN 的内核上建立概率分布,使用伯努利变分分布来近似模型的不可切合后验,并将dropout网络训练视为 Bayesian 神经网络中的近似推理。相比于标准技术,我们的模型在小数据上具备更好的鲁棒性,并在 CIFAR-10 上的分类准确率上取得了发表的最新结果的显著改善。
Jun, 2015
使用变分贝叶斯方法和后向传播裁剪算法等对循环神经网络进行训练,大幅降低了参数数量和提高了贝叶斯逼近性能。在语言建模和图像描述等任务中,贝叶斯循环神经网络优于传统循环神经网络。
Apr, 2017
本文提出了一种新的随机梯度下降算法,利用随机噪声扰动,无需任何假设于数据分布、网络大小和训练集大小,就能够证明地达到单隐藏层ReLU网络的全局最优性,同时提出了一些一般的泛化保证,此外,数值测试结果也验证了算法和理论的实用性。
Aug, 2018
引入了一种基于概率鲁棒性的贝叶斯神经网络(BNNs)的测量方法,定义为在某个有界集合内是否存在另一个点,使得BNN的预测在这两个点之间有差异的概率,并且可以用于量化对抗样本的存在概率。通过基于概率模型的统计验证技术,开发了一个框架,可以估计具有统计保证的BNN的概率鲁棒性,并在MNIST和GTSRB数据集的图像分类任务上提供了实验对比。结果可以在对抗环境中量化BNN预测的不确定性。
Mar, 2019
本研究通过对 10 种常见的推断方法在回归和分类任务中的预测不确定性估计结果进行实证比较,发现常用的指标可能会导致误导,并表明为了得到高质量的后验逼近并不一定需要具有捕获后验结构的推断创新。
Jun, 2019
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
本文研究贝叶斯神经网络中后验概率的真实性及精度,通过 MCMC 抽样实验发现使用贝叶斯后验的预测性能显著不如基于 SGD 的点估计方法,并提出了一种“冷后验”的新方法,解释其使用背景及理论基础。本工作挑战了贝叶斯深度学习中关于精度估算的目标,提出从理解和探究“冷后验”方法优化神经网络性能入手。
Feb, 2020
本文讨论贝叶斯神经网络在图片分类上的应用,发现此类应用使用的是错误的似然度。作者开发了一个描述“筛选”过程的生成模型,并与之前使用的调整后的后验概率似然度进行了基于贝叶斯思想的对比。
Aug, 2020
神经网络在各个问题领域取得了显著的表现,但其普适性受到其内在限制的阻碍,如预测上的过度自信、解释能力的欠缺和对对抗攻击的易受攻击性等。为了解决这些挑战,贝叶斯神经网络(BNNs)已成为传统神经网络的引人注目的扩展,在预测能力中整合了不确定性估计。本文系统地介绍了神经网络和贝叶斯推理的基本概念,阐明了它们对BNNs的协同集成的发展。目标受众包括具有贝叶斯方法背景但缺乏深度学习专业知识的统计学家,以及具有有限贝叶斯统计知识但精通深度神经网络的机器学习专家。我们概述了常用的先验知识,分析了它们对模型行为和性能的影响。此外,我们还深入探讨了在BNN研究领域内的先进主题,承认了不断进行的辩论和争议。通过提供对前沿发展的深入洞察,本文不仅为研究人员和实践者提供了BNNs方面的坚实基础,还展示了该动态领域的潜在应用。作为宝贵的资源,它促进对BNNs及其前景的理解,推动知识和创新的进一步发展。
Sep, 2023
使用贝叶斯方法进行深度神经网络(BNNs)训练在广泛应用中受到了极大关注,并且已被有效地应用于各种情况。然而,大多数关于对BNNs的后验集中性质的研究仅在具有稀疏或重尾先验的BNN模型中证明结果。令人惊讶的是,目前还没有关于使用最常用的高斯先验进行BNNs的理论结果存在。这种理论缺乏是由于没有非稀疏且具有有界参数的深度神经网络(DNNs)的近似结果。在本文中,我们提出了一个新的近似理论,用于具有有界参数的非稀疏DNNs。此外,基于该近似理论,我们表明具有非稀疏一般先验的BNNs可以以接近最小最优后验集中速率接近真实模型。
Mar, 2024