本文研究了深度图像分类模型中毒的问题,提出了两种防御方案进行后处理,利用少量的受信任的图像标签对修复模型,防御效果优于现有的方案,并指出了检测 / 鲁棒性权衡关系和攻击的适应能力问题。
May, 2023
本文研究了利用自然现象 —— 影子生成干扰以实现自然和偷偷摸摸的物理世界对抗攻击的新型光学对抗样本,并在模拟和真实环境下进行了广泛评估,结果表明此攻击的成功率达到了 98.23% 和 90.47%,而且可以在真实场景下连续欺骗移动摄像机 95% 以上的时间。
Mar, 2022
提出了一种基于深度学习的方法来检测最易受到对抗攻击的样本,并且通过不同的模型和攻击方法进行评估。理解样本易受攻击性对未来研究中的样本选择任务具有重要意义。
Jan, 2023
该文章回顾了许多现有的针对机器学习模型的对抗攻击,突出了一些尚未解决的挑战,一些特定领域的约束可能会增加制作对抗样本的难度,也强调了如何将这些理论应用到实践的挑战。
Mar, 2023
探索图像预处理方法引入隐形透明度,触发人工智能对人眼所感知内容的错误解读,通过数据集污染使灰度地景和标志集合的标签错误分类,这种隐形透明度混淆了包括人脸识别、数字水印、内容过滤、数据集筛选等领域中复杂视觉系统,与传统针对像素值修改的对抗攻击不同。
Jan, 2024
深度学习模型对抗攻击和防御的鲁棒性的综合实验研究表明,模型复杂度和鲁棒性之间存在显著关系,并且应用防御策略可以显著减少攻击效果。
May, 2024
本文研究了机器学习在安全敏感应用中的应用,提出了一种基于梯度的方法来评估分类算法在对抗攻击下的安全性,并针对 PDF 文件中的恶意软件检测任务进行了实验,同时提出了一些相应的反制措施。
Aug, 2017
本论文提出了一种针对 NLP 攻击的样本攻击性 / 鲁棒性的定义扩展,实验证明深度学习检测器可以更好地识别针对未知目标模型最易受攻击和最具鲁棒性的样本,但是不同 NLP 攻击方法中没有一致性,解释了攻击性检测方法在攻击方法之间缺乏可移植性的现象。
Jun, 2023
本研究是首次系统地研究灰盒 / 黑盒交通空间对抗攻击来评估基于 ML 的 NIDS 的鲁棒性,攻击效果最高可达 97% 躲避率。研究提出可自动突变原始数据流、适用于多种 ML/DL 模型和非载荷特征的通用攻击,同时提出防御措施来提高系统鲁棒性。
May, 2020
本文介绍了一种基于对深度神经网络输入输出映射的精确理解的算法,用于制造可以轻易被误分类的针对深度神经网络的对抗样本,通过计算不同类型的样本之间的硬度度量对不同的类型的样本抗击抗性进行了评估,并提出了防御针对性攻击的初步方法。
Nov, 2015