Liu 等人最近的一篇论文结合了对抗训练和贝叶斯神经网络(BNN)的主题,并建议对抗性训练的 BNN 比其非贝叶斯对应物更能抵御对抗攻击。在此,笔者分析了所提出的防御,并建议需要调整对抗攻击,以融入贝叶斯网络的随机性质,以对其稳健性进行准确评估。使用这种新型攻击,我表明对抗性训练的 BNN 似乎没有更强的稳健性证据。
Jul, 2019
贝叶斯神经网络并不具备固有的对抗攻击鲁棒性,而近期的研究表明对抗性样本导致神经网络在各种视觉和语言任务上失效。该研究通过研究三个任务的对抗鲁棒性来验证贝叶斯神经网络的鲁棒性,结果表明即使使用相对不复杂的攻击方法,使用最先进的近似推断方法和哈密頓蒙特卡洛方法训练的贝叶斯神经网络仍然容易受到对抗攻击,并揭示了之前声称贝叶斯神经网络具备固有对抗鲁棒性的研究中存在的概念和实验错误。
Apr, 2024
本文提出了一种新算法来训练深度神经网络模型以抵御对抗攻击,并提出防止模式崩溃以更好地逼近多模式贝叶斯模型的后验分布的方法。其提出的信息增益目标证明了该算法可以使其在抗对抗风险逼近常规经验风险,并且证明了其在 CIFAR-10 和 STL-10 数据集上比现有算法实现了更高的鲁棒性 30%。
Dec, 2022
本文旨在分析大数据下拟贝叶斯神经网络 (Bayesian Neural Networks) 对抗性攻击 (Adversarial Attack) 的几何特征,证明当数据分布存在退化时,对抗性攻击的易感性增加,并证明拟贝叶斯神经网络后验概率分布的期望梯度为零,因此在 MNIST、Fashion MNIST 和半月形数据集上,拟贝叶斯神经网络可展现出对于基于梯度和基于无梯度攻击的同时鲁棒性和高准确率。
Jul, 2022
通过贝叶斯学习的视角考虑深度神经网络的对抗训练,并提出了一种具有可证明保证的贝叶斯神经网络(BNN)的对抗训练的原则性框架。该方法可在 MNIST、FashionMNIST 和 CIFAR-10 上训练出可证明鲁棒性的模型,并用于不确定性校准。这是第一次直接训练可证明的 BNN,可促进在安全关键应用中的部署。
Feb, 2021
这篇论文提出了一种新的框架,即 BATer,使用贝叶斯神经网络(BNN)来模拟隐藏层输出分布的随机性和分散度,从而提高对抗性例子的检测性能,实验结果表明,与当前最先进的检测器相比,BATer 在对抗性例子检测方面表现更好。
May, 2021
分析了在大数据、超参数限制条件下对贝叶斯神经网络(BNN)的对抗攻击几何特征,并证明了其后验鲁棒性能和基于梯度的对抗攻击是相关的。在 MNIST 和 Fashion MNIST 数据集中,利用 Hamiltonian Monte Carlo 和 Variational Inference 实现了高精度和鲁棒性。
Feb, 2020
通过自适应批归一化网络(ABNN)设计一种不基于对抗训练但仍然能够抵御强对抗攻击的防御方法,以提高对抗性鲁棒性并在图像和视频数据集上实现更高的清洁数据性能和显著降低训练时间复杂度。
May, 2024
通过权重区间采样的计算框架,对贝叶斯神经网络(BNNs)的鲁棒性进行了证明,包括在分类及回归等多种任务中的使用。
Jun, 2023
该研究论文通过对网络二值化进行全面评估,揭示了二值化神经网络在白盒和黑盒攻击下的鲁棒性表现,以及不同网络之间的相似性和应用前景。
Dec, 2023