通过有针对性的权重扰动向卷积神经网络植入后门
本文以 Fast Gradient Sign Method 为基础,对面部图像数据集进行扰动,测试不同黑盒攻击算法的鲁棒性,并重点研究修改单个最佳像素或所有像素的攻击方法。研究结果表明,所有像素攻击方法能使分类器置信度平均下降至 84%,且 81.6%的误分类率,但这些图像始终可以被人类识别。该研究可为防御性对抗攻击、自适应噪声降低技术等方面的 DNNs 训练和研究提供宝贵的参考。
Jan, 2020
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
本文通过基于卷积神经网络的 Inception 和 ResNet 模型在 MSU Mobile Face Spoofing 数据库上的表现,研究了如何应用这些深度学习算法实现面部反欺骗的生物特征访问控制。
May, 2018
本文针对深度神经网络在人脸识别中的鲁棒性进行了研究,分析了深度学习算法的脆弱性,建立了分类器来检测对深度网络中隐藏层的攻击,并提出了多种方法来缓解攻击影响并提高神经网络的鲁棒性。
Feb, 2018
通过对深度学习模型的不同层进行敌对性扰动攻击验证,研究表明浅层的通道组合对模型的干扰较大,在不同攻击类型中具有共享的易受攻击通道组合,而不同攻击对隐藏表示的影响存在差异且与卷积核大小呈正相关,以此为基础为未来应用开发高效的应对性防御机制奠定技术基础。
May, 2024
本文介绍了一种特定类型的数据投毒攻击,即后门注入攻击,讨论了攻击者注入后门到深度学习模型中的方法,并提出了两种在不削弱受害者模型有效性的情况下,难以察觉但能实现模型毒化的后门生成方法。我们进行了广泛的实验评估,并证明即使在最弱的攻击者模型下,这种攻击可以在小的注入率(约为 1%)条件下实现高达 90%以上的攻击成功率。
Aug, 2018
我们的研究利用先进的张量分解算法(独立向量分析、多集合规范相关分析和并行因子分析)分析训练好的深度神经网络的权重,有效地区分带后门和干净的模型,从而增强网络系统中深度学习和人工智能的安全性。
Mar, 2024
本文提出了一种快速特征生成技术,可以对深度神经网络进行快速的安全检测,尤其是可以在几秒钟内检测出所谓的后门 (backdoors),并且无需大量计算资源和训练数据。
Jul, 2020
本文旨在评估最先进的人脸识别模型在基于决策的黑盒攻击环境下的鲁棒性能,并提出一种新的进化攻击算法以减少搜索空间维度,实验结果表明该方法能够在较少的查询次数内诱导输入的最小扰动,并成功地用于攻击一个真实的人脸识别系统。
Apr, 2019
研究表明深度神经网络中容易发生 backdoor 污染攻击,本文研究发现有一种有趣的特性,就是在有污染的模型中敌对扰动更容易传输从而用这个特性提出一种能在 TrojAI 基准测试中检测污染模型的方法。
Mar, 2021