针对在线社交网络 (OSNs) 生成强健对抗性示例
本文提出了一种系统的流程来逆置真实世界物体探测器的健壮身体对抗性,通过扩展图像变换的分布,设计各种攻击向量和考虑各种不同的环境因素,生成的物理例外能够有效地欺骗 YOLO v5 基于 TSR 系统的其他最新物体探测器,并做出了基于图像预处理、AEs 检测和模型增强三种防御机制的讨论。
Jan, 2022
本研究提出了一种基于 ContraNet 框架和 metric learning 的新型 adversarial examples 检测方法,具有识别能力强、鲁棒性高和易于与其他防御技术相结合等优点。
Jan, 2022
本文主要研究了针对神经网络分类器的测试时间攻击检测方法,并在不同数据集和场景下提供了八种最先进的检测器的实验结果,为此研究方向提供了挑战和未来的展望。
May, 2021
通过系统性攻击图像边界提出的一种不可察觉的对抗性攻击方法,有效攻击了六个 CNN 模型和 Vision Transformers,仅使用图像边界的 32% 作为输入,成功率达到 95.2%,峰值信噪比为 41.37 dB,借此可以更深入地理解对抗性样本,并给出了构造对抗性样本的不同视角。
Aug, 2023
提出利用 Attention Loss 替代传统 Cross entropy loss 拓展 Attack on Attention(AoA)的方法,生成了 50000 个对多个 DNNs 均有效的对抗样本,建立了全新的对抗数据集 DAmageNet
Jan, 2020
提出了一种新的 DIfficulty-Aware Simulator(DIAS)框架,用于生成具有不同难度水平的假样本以模拟真实世界的情况,在开放集识别(OSR)中超越了现有技术。
Jul, 2022
本文提出了一种通用方法 - 对抗生成网络(AGNs),通过训练一个生成器神经网络输出满足特定目标的对抗样本来解决扰动图像误分类的问题,并在两个应用领域进行了演示。
Dec, 2017
本研究提出了一种基于敏感度不一致性的检测器(SID),可以检测小扰动水平下的对抗性样本。通过设计双分类器来解决正常样本和对抗性样本间的感知敏感度不一致性,相较于基于 LID,MD 和 FS 的算法,SID 在 AE 检测性能和泛化能力上均取得了更好的表现
Mar, 2021
本文提出了一种新颖的框架 Salient Spatially Transformed Attack (SSTA),用于生成不可察觉的对抗性样本(AE),通过在最关键区域上估计平滑的空间变换度量来提高 AE 的隐匿性,相比其他方法,SSTA 在保持 100% 攻击成功率的同时,有效提升了 AE 的隐匿性。
Dec, 2023