本研究介绍贝叶斯神经网络的实现方法,比较不同的近似推理方法,探讨如何在当前方法的基础上改进未来研究。
Jun, 2020
通过研究两种常见的变分方法,该文证明了在低不确定性区域之间不存在过多信息增加的情况,并提供了深度神经网络中的柔性不确定性估计的近似贝叶斯后验分布,但发现了类似于单隐层 ReLU 情况的病理现象。
Sep, 2019
本文探讨了神经网络模型中输入变量之间互动和由此定义出的概念所代表的意义是否真实可靠,经过大量实证研究,发现训练良好的神经网络模型往往可以获得稀疏、可转移和有区分性的概念,这部分与人类观点相符合。
Feb, 2023
这项研究探索了贝叶斯神经网络的概念,并提出了一种新颖的架构来显著减少网络的存储空间复杂性。此外,我们介绍了一种能够高效处理不确定性的算法,确保强健的收敛值而不会陷入局部极小值的问题,特别是在目标函数缺乏完美凸性的情况下。
Mar, 2024
神经网络在各个问题领域取得了显著的表现,但其普适性受到其内在限制的阻碍,如预测上的过度自信、解释能力的欠缺和对对抗攻击的易受攻击性等。为了解决这些挑战,贝叶斯神经网络(BNNs)已成为传统神经网络的引人注目的扩展,在预测能力中整合了不确定性估计。本文系统地介绍了神经网络和贝叶斯推理的基本概念,阐明了它们对 BNNs 的协同集成的发展。目标受众包括具有贝叶斯方法背景但缺乏深度学习专业知识的统计学家,以及具有有限贝叶斯统计知识但精通深度神经网络的机器学习专家。我们概述了常用的先验知识,分析了它们对模型行为和性能的影响。此外,我们还深入探讨了在 BNN 研究领域内的先进主题,承认了不断进行的辩论和争议。通过提供对前沿发展的深入洞察,本文不仅为研究人员和实践者提供了 BNNs 方面的坚实基础,还展示了该动态领域的潜在应用。作为宝贵的资源,它促进对 BNNs 及其前景的理解,推动知识和创新的进一步发展。
Sep, 2023
从交互概念的角度解释深度神经网络的泛化能力,定义交互概念的复杂性,发现简单概念可以更好地推广到测试数据,研究发现学习复杂概念的绕道动态解释了复杂概念的高学习难度和低泛化能力。
该论文介绍了 Bayes by Hypernet,一种新的变分逼近方法,通过将超网络视为隐式分布来解决现代神经网络在未见过的、嘈杂的或标记错误的数据上过于自信,并且不能产生有意义的不确定性度量的短板,本文在 MNIST 和 CIFAR5 任务中表现优异且最具鲁棒性,同时满足复杂度、可扩展性和准确度的要求。
Nov, 2017
本文研究了深度神经网络的特征表示瓶颈,从输入变量在 DNN 中编码的交互复杂性的角度进行探讨,发现 DNN 更可能编码过于简单和过于复杂的交互,并且通常无法学习中等复杂度的交互。该现象被称为特征表示瓶颈,本文从理论上证明了其根本原因,并提出了一种损失函数来促进或惩罚特定复杂度的交互的学习,并分析了不同复杂度交互的表示能力。
Nov, 2021
贝叶斯神经网络并不具备固有的对抗攻击鲁棒性,而近期的研究表明对抗性样本导致神经网络在各种视觉和语言任务上失效。该研究通过研究三个任务的对抗鲁棒性来验证贝叶斯神经网络的鲁棒性,结果表明即使使用相对不复杂的攻击方法,使用最先进的近似推断方法和哈密頓蒙特卡洛方法训练的贝叶斯神经网络仍然容易受到对抗攻击,并揭示了之前声称贝叶斯神经网络具备固有对抗鲁棒性的研究中存在的概念和实验错误。
Apr, 2024
使用贝叶斯方法进行深度神经网络(BNNs)训练在广泛应用中受到了极大关注,并且已被有效地应用于各种情况。然而,大多数关于对 BNNs 的后验集中性质的研究仅在具有稀疏或重尾先验的 BNN 模型中证明结果。令人惊讶的是,目前还没有关于使用最常用的高斯先验进行 BNNs 的理论结果存在。这种理论缺乏是由于没有非稀疏且具有有界参数的深度神经网络(DNNs)的近似结果。在本文中,我们提出了一个新的近似理论,用于具有有界参数的非稀疏 DNNs。此外,基于该近似理论,我们表明具有非稀疏一般先验的 BNNs 可以以接近最小最优后验集中速率接近真实模型。