SSTA: 显著空间变形攻击
通过系统性攻击图像边界提出的一种不可察觉的对抗性攻击方法,有效攻击了六个 CNN 模型和 Vision Transformers,仅使用图像边界的 32% 作为输入,成功率达到 95.2%,峰值信噪比为 41.37 dB,借此可以更深入地理解对抗性样本,并给出了构造对抗性样本的不同视角。
Aug, 2023
本研究提出了一种基于敏感度不一致性的检测器(SID),可以检测小扰动水平下的对抗性样本。通过设计双分类器来解决正常样本和对抗性样本间的感知敏感度不一致性,相较于基于 LID,MD 和 FS 的算法,SID 在 AE 检测性能和泛化能力上均取得了更好的表现
Mar, 2021
本文提出了一种面向视频的对抗攻击策略 DeepSAVA,通过加性扰动和空间变换的统一优化框架,利用贝叶斯优化和随机梯度下降算法产生扰动,采用结构相似性指数(SSIM)测量对抗距离,使 DeepSAVA 在保持人眼无法察觉的情况下获得最先进的攻击成功率和对抗转移性能,被证明在各种类型的深度神经网络和视频数据集上具有优越性。
Nov, 2021
本文提出了一种系统的流程来逆置真实世界物体探测器的健壮身体对抗性,通过扩展图像变换的分布,设计各种攻击向量和考虑各种不同的环境因素,生成的物理例外能够有效地欺骗 YOLO v5 基于 TSR 系统的其他最新物体探测器,并做出了基于图像预处理、AEs 检测和模型增强三种防御机制的讨论。
Jan, 2022
提出了一种在查询有限环境下构造强大对抗性例子的新框架 STBA,通过引入流场到干净图像的高频部分来生成对抗性例子,结合有效的梯度估计方法,显著提高了对抗性例子的真实性和攻击成功率。
Mar, 2024
提出了一种名为 SSCAE 的自然语言生成器模型,它是一种实用且高效的对抗性攻击模型,能够生成具有语义、句法和上下文感知的自然语言对抗性示例,通过比较实验和参数优化敏感性分析验证了该模型的有效性和优越性。
Mar, 2024
深度状态空间模型(SSMs)面临着真实世界部署中的对抗性扰动(APs)所带来的严重安全挑战。本研究评估了 SSMs 的不同结构变种在对抗训练(AT)中的对抗鲁棒性(AR)表现,并发现引入注意力机制对于 SSMs 在 AT 中具有更好的稳健性和泛化性之间的权衡,并提出了一种简单而有效的自适应缩放(AdS)机制以解决引入 RO 问题的困境。
Jun, 2024
通过改进的 Adversarial Training 算法 SMAAT,本研究提供了 vision 和 language 模型在 generalization 和 robustness 趋势差异的首个解释,同时展示了 SMAAT 在多个任务中显著提高了鲁棒性,且相比于标准的 AT 仅需约 25-33% 的 GPU 时间。
May, 2024
通过生成器的攻击方法,我们能够以高效的方式生成稀疏且可转移的对抗性示例,从而欺骗语音情感识别模型,并能够对先进的受害者模型进行有效的对抗攻击。
Feb, 2024
本文主要研究了针对神经网络分类器的测试时间攻击检测方法,并在不同数据集和场景下提供了八种最先进的检测器的实验结果,为此研究方向提供了挑战和未来的展望。
May, 2021