Adv-BNN: 基于鲁棒性贝叶斯神经网络的改进对抗防御
提出了对抗后验蒸馏框架,使用生成对抗网络(GAN)来压缩随机梯度 Langevin 动力学 (SGLD) 采样,使其在效率和精度方面都具有优势,能够将 Bayes 神经网络(BNN) 应用于诸如异常检测、主动学习和对抗性攻击防御等细分领域
Jun, 2018
引入了一种基于概率鲁棒性的贝叶斯神经网络(BNNs)的测量方法,定义为在某个有界集合内是否存在另一个点,使得BNN的预测在这两个点之间有差异的概率,并且可以用于量化对抗样本的存在概率。通过基于概率模型的统计验证技术,开发了一个框架,可以估计具有统计保证的BNN的概率鲁棒性,并在MNIST和GTSRB数据集的图像分类任务上提供了实验对比。结果可以在对抗环境中量化BNN预测的不确定性。
Mar, 2019
Liu等人最近的一篇论文结合了对抗训练和贝叶斯神经网络(BNN)的主题,并建议对抗性训练的BNN比其非贝叶斯对应物更能抵御对抗攻击。在此,笔者分析了所提出的防御,并建议需要调整对抗攻击,以融入贝叶斯网络的随机性质,以对其稳健性进行准确评估。使用这种新型攻击,我表明对抗性训练的BNN似乎没有更强的稳健性证据。
Jul, 2019
分析了在大数据、超参数限制条件下对贝叶斯神经网络(BNN)的对抗攻击几何特征,并证明了其后验鲁棒性能和基于梯度的对抗攻击是相关的。在MNIST和Fashion MNIST数据集中,利用Hamiltonian Monte Carlo和Variational Inference实现了高精度和鲁棒性。
Feb, 2020
通过贝叶斯学习的视角考虑深度神经网络的对抗训练,并提出了一种具有可证明保证的贝叶斯神经网络(BNN)的对抗训练的原则性框架。该方法可在MNIST、FashionMNIST和CIFAR-10上训练出可证明鲁棒性的模型,并用于不确定性校准。这是第一次直接训练可证明的BNN,可促进在安全关键应用中的部署。
Feb, 2021
本文旨在分析大数据下拟贝叶斯神经网络(Bayesian Neural Networks)对抗性攻击(Adversarial Attack)的几何特征,证明当数据分布存在退化时,对抗性攻击的易感性增加,并证明拟贝叶斯神经网络后验概率分布的期望梯度为零,因此在MNIST、Fashion MNIST和半月形数据集上,拟贝叶斯神经网络可展现出对于基于梯度和基于无梯度攻击的同时鲁棒性和高准确率。
Jul, 2022
本文提出了一种新算法来训练深度神经网络模型以抵御对抗攻击,并提出防止模式崩溃以更好地逼近多模式贝叶斯模型的后验分布的方法。其提出的信息增益目标证明了该算法可以使其在抗对抗风险逼近常规经验风险,并且证明了其在CIFAR-10和STL-10数据集上比现有算法实现了更高的鲁棒性30%。
Dec, 2022
贝叶斯神经网络并不具备固有的对抗攻击鲁棒性,而近期的研究表明对抗性样本导致神经网络在各种视觉和语言任务上失效。该研究通过研究三个任务的对抗鲁棒性来验证贝叶斯神经网络的鲁棒性,结果表明即使使用相对不复杂的攻击方法,使用最先进的近似推断方法和哈密頓蒙特卡洛方法训练的贝叶斯神经网络仍然容易受到对抗攻击,并揭示了之前声称贝叶斯神经网络具备固有对抗鲁棒性的研究中存在的概念和实验错误。
Apr, 2024