本研究提出了一种基于视频的攻击方法,将几个无用帧附加到视频剪辑中并仅对这些新帧添加对抗扰动,这种攻击可以成功地穿越不同的网络,并且对于大多数人来说是不易注意到异常的,从而有效地进行通用视频攻击。
Dec, 2019
本文介绍了一种可以进行视频分类器对抗攻击的方法,该方法利用了时间信息中的闪烁扰动,并展示了普适对抗扰动和实现对多目标模型的攻击转移能力。
Feb, 2020
本文提出一种新的局部对抗性攻击方法用来生成对抗性样本,进而通过在训练集中包含局部对抗性图像来提高分类器鲁棒性和对抗样本的识别率。在 MNIST 和 CIFAR-10 数据集上的评估结果表明,该训练算法可以降低自然图像的准确度损失,并提高抵抗对抗性输入的容忍度。
Sep, 2019
本文探讨了针对文档和自然数据的对抗攻击方法,并通过对 ResNet50 和 EfficientNetB0 模型架构的对抗训练、JPEG input 压缩和灰度输入变换等方法的研究, 对文件图像分类任务中这些攻击的影响进行了评估。
Apr, 2023
利用自适应 JPEG 编码器来增强深度神经网络对抗性攻击的鲁棒性,不仅可以保持图像的视觉质量,而且无需更改分类器并且压缩图像可以被非定制的 JPEG 解码器解压。
Mar, 2018
本研究研究了针对神经网络策略的对抗攻击,发现现有的对抗样本制作技术能够很好地降低训练策略的测试时间性能,并且一些小干扰就能引起显著性能下降。
Feb, 2017
本文介绍了一种针对具有高度内类变异的待攻击目标,即人体,生成对抗贴片的方法,并且通过实验表明,我们的系统能显著降低人体检测器的准确性,同时还在实际场景中能够进行攻击。
Apr, 2019
通过在预先训练好的外部模型上找到敌对样本,我们将有害的攻击过程转化为有用的防御机制,并且我们的防御方法比先前的方法更为强大和经济。
Nov, 2019
本文提出了一种对抗性噪声网络攻击方法,有效地误导了深度神经网络,同时也改变了网络决策的解释算法,并引入一种控制条件测试神经网络解释算法准确性的方法,以促进更健壮的神经网络解释工具发展。
Dec, 2018
本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
Jan, 2019