面向对抗样本具鲁棒性的深度神经网络架构
通过利用深度卷积神经网络生成对抗性样本,然后比较不同的生成技术在产生图像质量和测试机器学习模型鲁棒性方面的差异,最后在跨模型对抗迁移上进行了大规模实验,研究结果表明对抗性样本在相似的网络拓扑间是可传递的,并且更好的机器学习模型更不容易受到对抗性样本的攻击。
Oct, 2016
该文章提出了一种直接部署到标准深度神经网络模型中的简单方法,通过引入两个经典图像处理技术,标量量化和平滑空间滤波,将图像中的扰动降低到最小,使用图像熵作为度量标准,可以有效地检测出对基于多种攻击技术的先进深度学习模型的20,000多个对抗样本,最终的实验结果表明,该检测方法可以取得96.39%的高整体F1评分。
May, 2017
本文提出了一种基于混合整数规划的验证方法,对分段线性神经网络进行验证,以评估其对于对抗样本的脆弱性;通过紧凑的非线性公式和新颖的预处理算法实现了两到三个数量级的计算速度提升,并成功确定了 MNIST 分类器对于一定幅值下的对抗精度,相较于同类算法提供更好的证明。
Nov, 2017
研究表明深度神经网络容易受到精心设计的对抗扰动的攻击,并且这些对抗扰动通常会在模型之间转移。本研究假设对抗脆弱性有三个来源:架构、数据集和随机初始化,并将对抗样本分解为架构相关、数据相关和噪声相关的三个分量,可以重新组合以提高可转移性而不影响原始模型的有效性。
Dec, 2018
使用对抗性过滤技术构建了两个具有挑战性的数据集,分别是ImageNet-A和ImageNet-O,这两个数据集的出现使得计算机视觉模型的性能大幅下降,而现有的数据增强技术和公共训练数据集的使用带来的改进有限。
Jul, 2019
本研究提出了一种基于目标网络隐藏层数据表示的机制来检测对抗性样本,该机制训练了目标网络中间层的单独的自编码器,可以描述真实数据的流形,从而判断一个给定的例子是否具有与真实数据相同的特征,并探究对抗性样本在深度神经网络层中的行为。实验结果表明,我们的方法在监督和无监督环境中表现优于现有技术水平。
Jun, 2020
本篇论文提出了一种深度学习方法,可以在图像分类类型的网络中保护并提高其鲁棒性,同时实现了准确性和鲁棒性的平衡,通过实验验证了该方法的有效性和鲁棒性保障。
Jul, 2020
本文研究了神经网络建模的正则化视角,通过将模型向分类决策边界的平滑变化进行防御,使其尽可能不改变预测结果,但会导致预测结果的置信度下降,这种正则化方法要避免性能下降。
Nov, 2020