ADVREPAIR: 对抗性攻击的可证明修复
本文提出了可证明修复问题,即在发现不安全行为后修复神经网络 (DNN) 的问题,并介绍了可用于有限点和凸多面体等安全规范的 Provable Point 和 Provable Polytope 修复算法,以及 Decoupled DNN 结构,它允许将可证明修复减少至线性规划问题。实验结果证明了我们的算法在各种具有挑战性的任务中的有效性和效率。
Apr, 2021
本文提出了一种基于 V-polytope 的可证明修复方法,该方法可以在不修改架构的情况下修改深度神经网络(DNN)的参数,支持多层修复,运行时间复杂度为多项式级别。使用 MNIST,ImageNet 和 ACAS Xu DNNs 测试显示该方法比以前的 PRDNN 和 REASSURE 方法在效率、可扩展性和泛化性方面更好。
Apr, 2023
提出了一种通过使用 SMT 求解器修复有关安全规范的不安全神经网络,以防止对抗攻击,并且通过修改少量的权重值来寻找新的安全神经网络表示,从而最大限度地保持决策边界相似性,同时保证只有轻微的准确度损失,证明了该方法的实用性。
Jul, 2022
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
通过将输入图像分成多个块,对每个块进行去噪并重构图像来提高深度神经网络对抗攻击的鲁棒性,在灰盒测试方案下,该方法比现有技术提高了 19.7% 的准确度,并且在黑盒测试方案下具有可比拟的表现,在白盒测试方案下取得 34.4% 的准确率,这是最近研究中没有出现的。
Feb, 2018
深度神经网络容易受到各种类型的对抗性样本的攻击,并且现有的对抗性修补方法通常生成的修补具有无意义的噪声或图案,本研究旨在生成真实视觉效果的对抗性修补以欺骗深度神经网络。通过在真实图像的邻域内限制修补的位置,优化位置的不相关性,并采用总变差损失和伽马变换以保留信息,生成的对抗性修补具有卓越的攻击性能,并且可以伪装成物理世界中的涂鸦或标志来欺骗深度模型,给深度神经网络应用带来重大威胁。
Dec, 2023
AIREPAIR 是一个神经网络修复平台,通过将现有的网络修复工具进行整合,在同一模型上运行不同的修复算法,从而实现不同的修复技术之间的公平比较。我们在流行的深度学习数据集和模型上使用三种最先进的修复工具来测试 AIREPAIR 的效用性,并通过比较和分析不同修复技术的结果进行评估。
Nov, 2022
通过使用少量的样本,本研究提出了三种机制进行训练,其中原型重建是最有效的,生成的对抗性样本可成功地转移至各种图像分类和面部验证模型,最终的应用结果显示我们的方法能够显著降低商业名人识别系统的预测准确率近 15.4%。
Dec, 2020
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
该论文提出了一种修复缺陷深度神经网络的框架,BIRDNN,它结合了重新训练和微调的方法,通过模拟期望行为和分析错误行为的关键神经元来修复错误的预测,并且具有更高的效率和兼容性。
May, 2023