离散化解决方案:安全机器学习抵御对抗攻击
本文探讨像素离散化这种预处理防御方法在对抗攻击下的表现。通过实验,得出此方法只适用于简单数据集而在更复杂的数据集像 ImageNet 上的效果不佳,并分析了其原因及其他预处理防御方法的不足。
May, 2018
本文提出采用随机离散化和高斯噪声注入的简单有效防御策略,可以显著提高对抗攻击下的图像分类器准确性,相比于其他对抗训练,以及 NIPS 2017 中获胜的防御方法,在 ImageNet 数据集上表现更优。
Mar, 2019
本文提出了一种使用前景注意力掩码增强深度神经网络对抗鲁棒性的方法,并在 GTSRB 和 MS-COCO 数据集上进行了实验,结果表明使用注意力掩码可提高对抗鲁棒性。
Nov, 2019
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015
本文提出离散对抗攻击的在线增强方法,使用基于最佳优先搜索和随机抽样的攻击策略来生成对抗性样本,结果表明使用随机抽样方法能够显著提高鲁棒性,而且比之前使用的离线增强方法速度提高了约 10 倍。
Apr, 2021
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的 20,000 多个对抗样本,最终的实验结果表明,该检测方法可以取得 96.39%的高整体 F1 评分。
May, 2017
该研究使用一个基于样本性质筛选的简化训练方法,在保持分类结果鲁棒性不变的情况下,将医学图像和自动驾驶等领域的深度神经网络训练时间减少到原来的三分之一。
Mar, 2023
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018