使用贝叶斯神经网络检测对抗性示例
贝叶斯神经网络并不具备固有的对抗攻击鲁棒性,而近期的研究表明对抗性样本导致神经网络在各种视觉和语言任务上失效。该研究通过研究三个任务的对抗鲁棒性来验证贝叶斯神经网络的鲁棒性,结果表明即使使用相对不复杂的攻击方法,使用最先进的近似推断方法和哈密頓蒙特卡洛方法训练的贝叶斯神经网络仍然容易受到对抗攻击,并揭示了之前声称贝叶斯神经网络具备固有对抗鲁棒性的研究中存在的概念和实验错误。
Apr, 2024
Liu 等人最近的一篇论文结合了对抗训练和贝叶斯神经网络(BNN)的主题,并建议对抗性训练的 BNN 比其非贝叶斯对应物更能抵御对抗攻击。在此,笔者分析了所提出的防御,并建议需要调整对抗攻击,以融入贝叶斯网络的随机性质,以对其稳健性进行准确评估。使用这种新型攻击,我表明对抗性训练的 BNN 似乎没有更强的稳健性证据。
Jul, 2019
本文介绍了 Lightweight Bayesian Refinement (LiBRe) 方法,利用 Bayesian 神经网络(BNNs)进行对抗检测。利用任务和攻击不可知建模的能力,LiBRe 可以以低成本为多种预训练的任务依赖型 DNN 提供防御异构性对抗攻击能力,并提供不需要在训练过程中制作对抗性示例就能实现对抗检测定向的不确定性量化的新颖见解。
Mar, 2021
本文使用先进的贝叶斯神经网络来检测对抗性噪声干扰下的自动语音识别系统,实验结果表明,该检测系统相对于当前现有的增强方法,可以提高 2.77% 至 5.42% 的检测率,并且可以将单词错误率降低 5.02% 至 7.47%。
Feb, 2022
本文介绍了一种利用深度学习神经网络中 Bayesian 不确定性估计和密度估计的方法,可以实现对于对抗样本的检测,具有很好的泛化性能,并在标准分类任务上取得了 85-93% 的 ROC-AUC 表现。
Mar, 2017
本文旨在分析大数据下拟贝叶斯神经网络 (Bayesian Neural Networks) 对抗性攻击 (Adversarial Attack) 的几何特征,证明当数据分布存在退化时,对抗性攻击的易感性增加,并证明拟贝叶斯神经网络后验概率分布的期望梯度为零,因此在 MNIST、Fashion MNIST 和半月形数据集上,拟贝叶斯神经网络可展现出对于基于梯度和基于无梯度攻击的同时鲁棒性和高准确率。
Jul, 2022
通过自适应批归一化网络(ABNN)设计一种不基于对抗训练但仍然能够抵御强对抗攻击的防御方法,以提高对抗性鲁棒性并在图像和视频数据集上实现更高的清洁数据性能和显著降低训练时间复杂度。
May, 2024
使用贝叶斯深度学习技术,以神经网络权重的后验分布进行抽样建立一个 surrogate,可以进一步提高黑盒攻击的可转移性,本文探究了提高攻击可转移性的训练方法, 将我们方法的表现与几种已有方法进行了比较,能够在 ImageNet 上获得 94% 的准确率。
Nov, 2020
分析了在大数据、超参数限制条件下对贝叶斯神经网络(BNN)的对抗攻击几何特征,并证明了其后验鲁棒性能和基于梯度的对抗攻击是相关的。在 MNIST 和 Fashion MNIST 数据集中,利用 Hamiltonian Monte Carlo 和 Variational Inference 实现了高精度和鲁棒性。
Feb, 2020