通过权重区间采样的计算框架,对贝叶斯神经网络(BNNs)的鲁棒性进行了证明,包括在分类及回归等多种任务中的使用。
Jun, 2023
引入了一种基于概率鲁棒性的贝叶斯神经网络(BNNs)的测量方法,定义为在某个有界集合内是否存在另一个点,使得 BNN 的预测在这两个点之间有差异的概率,并且可以用于量化对抗样本的存在概率。通过基于概率模型的统计验证技术,开发了一个框架,可以估计具有统计保证的 BNN 的概率鲁棒性,并在 MNIST 和 GTSRB 数据集的图像分类任务上提供了实验对比。结果可以在对抗环境中量化 BNN 预测的不确定性。
Mar, 2019
我们介绍了两种算法,用于计算贝叶斯神经网络(BNNs)的概率鲁棒性的严格保证。
Jan, 2024
本文旨在分析大数据下拟贝叶斯神经网络 (Bayesian Neural Networks) 对抗性攻击 (Adversarial Attack) 的几何特征,证明当数据分布存在退化时,对抗性攻击的易感性增加,并证明拟贝叶斯神经网络后验概率分布的期望梯度为零,因此在 MNIST、Fashion MNIST 和半月形数据集上,拟贝叶斯神经网络可展现出对于基于梯度和基于无梯度攻击的同时鲁棒性和高准确率。
Jul, 2022
分析了在大数据、超参数限制条件下对贝叶斯神经网络(BNN)的对抗攻击几何特征,并证明了其后验鲁棒性能和基于梯度的对抗攻击是相关的。在 MNIST 和 Fashion MNIST 数据集中,利用 Hamiltonian Monte Carlo 和 Variational Inference 实现了高精度和鲁棒性。
Feb, 2020
通过贝叶斯学习的视角考虑深度神经网络的对抗训练,并提出了一种具有可证明保证的贝叶斯神经网络(BNN)的对抗训练的原则性框架。该方法可在 MNIST、FashionMNIST 和 CIFAR-10 上训练出可证明鲁棒性的模型,并用于不确定性校准。这是第一次直接训练可证明的 BNN,可促进在安全关键应用中的部署。
Feb, 2021
本研究主要探讨基于模型的强化学习中的安全性和鲁棒性问题,包括使用贝叶斯神经网络描述动态模型来计算迭代预测的到达 - 避免概率,以及使用控制综合算法综合出最佳控制策略以满足安全性约束和学习到的动态模型。
Oct, 2023
本文提出了一种有效的方法来严格检查神经网络的不同安全属性,可以检查不同的安全属性并找到具体的反例,比现有方法的性能提高了数个数量级,这种方法也有助于提高神经网络的可解释性并指导训练更加稳健的神经网络。
Sep, 2018
通过半定规划的框架来解决对于神经网络在输入不确定性和对抗攻击下的安全性和强鲁棒性认证的问题,通过抽象出激活函数的各种性质,分析其安全性质,解决了保守性和计算效率的平衡问题,并且可以应用于安全认证以外的问题。
贝叶斯神经网络并不具备固有的对抗攻击鲁棒性,而近期的研究表明对抗性样本导致神经网络在各种视觉和语言任务上失效。该研究通过研究三个任务的对抗鲁棒性来验证贝叶斯神经网络的鲁棒性,结果表明即使使用相对不复杂的攻击方法,使用最先进的近似推断方法和哈密頓蒙特卡洛方法训练的贝叶斯神经网络仍然容易受到对抗攻击,并揭示了之前声称贝叶斯神经网络具备固有对抗鲁棒性的研究中存在的概念和实验错误。
Apr, 2024