研究表明攻击图像分类器的对抗性攻击也会干扰图像的自然结构,恢复图像的自然结构可逆转多种类型的对抗性攻击并提高深度学习的鲁棒性。
Mar, 2021
该研究提出了一个确定深度学习模型标签更改是否合理的框架,并且定义了一个自适应的鲁棒性损失,使用导出的经验公式,开发了相应的数据增强框架和评估方法,证明了其对确定性标签下的一阶最近邻分类的维持一致性,并提供了实证评估结果。
Jun, 2021
通过反向工程将对抗样本归类至代表其算法和参数的类中,进而遏制不良者进行相关攻击。
Jan, 2023
本文探讨了机器学习和深度神经网络在语义分割任务上遭受对抗性干扰的问题,证实了对抗性攻击对该任务也具有显著影响,可以通过不可察觉的对抗性扰动诱导深度神经网络对某一类别像素的错误分类而几乎不影响该类别以外像素的分类。
Mar, 2017
该研究提出使用单个对抗性扰动来重新编程目标模板,以执行攻击者选择的任务,即使模型没有为此任务进行训练,成功演示了多个模型的此类攻击。
Jun, 2018
该研究旨在研究如何从对手的图像中逆向工程出对手干扰, 并提出了一个新的逆向工程欺骗(RED)方法,其中结合了 RED 原则和图像去噪方法,称为 CDD-RED,以增加其泛化能力,对多种攻击方法均具有效性。
Mar, 2022
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
Dec, 2016
论文研究了神经网络模型的不确定性对于对抗样本的产生具有决定性作用,与体系结构、数据集和训练协议无关,表现为对抗误差具有与对抗扰动大小呈幂律的普适性,通过减小预测熵来提高对抗鲁棒性,在 CIFAR10 上使用神经架构搜索找到更鲁棒的架构。
Nov, 2017
本文研究了深度神经网络在噪声环境中的鲁棒性和不变性,提出了快速计算稀疏对抗扰动和数据增强方法,与数据之间的特征联系起来,以实现更可靠的机器学习系统。
Aug, 2022
本文通过研究表明,图像分类网络对于对抗性攻击的脆弱性与其性能之间是一种互相联系的关系,因为网络中最容易受攻击的输入图像方向也是它们用于实现其分类性能的方向。此外,这种关系对于构建既精确又具有抵抗对抗攻击能力的神经网络具有深远的影响。
Jul, 2018