在神经网络的研究中,我们开发了一种新的梯度基础的对抗攻击方法,相较于已有的攻击方法,它更可靠,可以适应广泛的对抗标准,并且在提高效率的同时,不需要进行超参数调整,这将对神经网络的鲁棒性评估做出有益的贡献。
Jul, 2019
该研究提出了一种测试方法以识别弱攻击和防御评估,为了增强透明和信心,将攻击单元测试作为未来强度评估的重要组成部分。
Jun, 2022
该研究提出了一种基于梯度的迭代攻击方法来评估在语义图像分割领域中防御对抗扰动的模型的鲁棒性,并发现只有使用对抗样本进行训练才能获得鲁棒性,并分析了鲁棒性和准确性之间的权衡。
Jun, 2023
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
我们的研究论文提出了一种基于动态防御策略和稳定扩散的方法,该方法旨在在不使用对抗性示例的情况下进行 AI 系统的训练,以创建一个更广泛范围攻击下具有内在韧性的系统,从而提供一种更广泛且更强大的针对对抗性攻击的防御。
May, 2024
本论文提出了一种通过量化预训练神经网络的局部中间响应和辅助 softmax 层的置信度得出输入的对抗样本的测试时间对抗样本例探测器,并通过非迭代输入样本剪辑来减弱非相关特征,从而提高了 15 种对抗扰动水平下的平均性能,其中快速梯度符号法(FGSM)提高了 55.33%,而基本迭代法(BIM)和投影梯度法(PGD)分别提高了 6.3%。
Nov, 2022
通过对敌对学习及攻击的深入探究,我们发现在敌对性训练的模型中,用微小的随机噪声扰动部分攻击样本能够破坏其误导性预测,为此我们提出了一种有效的防御方法,是通过制造更加有效的防御扰动方法,利用敌对训练降低了地面真实的局部 Lipschitzness,同时攻击所有类别,将误导的预测转换为正确的预测,这种方法在经验实验证明有效。
本研究提出了一种名为 $A^5$ 的新框架,包括针对对抗攻击的首个认证预防性防御方法,该方法的主要思想是利用现有的神经网络自动扰动分析工具来为输入数据创建一种防御性扰动,从而保证在一定幅度攻击下输入数据的防御性失败。 在多项测试中,$A^5$ 打败了当前最先进的 MNIST,CIFAR10,FashionMNIST 和 Tinyimagenet 认证防御技术,并且还展示了如何使用 $A^5$ 创建可证明鲁棒的物理对象。
May, 2023
研究了机器学习的鲁棒性,使用集中式和分散式环境进行对抗训练,结果显示比现有研究提高了 18.41% 和 47% 的准确性,并提出了独立同分布和非独立同分布数据的 IID 数据共享方法,可提高自然准确性和鲁棒准确性。
Sep, 2023
该研究论文探讨了对抗性样本及训练,以及如何生成更强的对抗性样本以提高鲁棒性,介绍了集成对抗性训练技术,并表明在 ImageNet 数据集上应用该技术可以显著提高模型的鲁棒性。
May, 2017