通过计算基于l2,1范数的优化算法,我们在CNN + RNN网络中使用传播来计算视频的稀疏对抗扰动,即只需扰动视频中的一帧,即可使DNN的错判率可达59.7%。
Mar, 2018
本文研究的是生成通用对抗扰动和抵御这类扰动的有效方法,提出了一种简单的基于优化的通用攻击方法来降低各种网络的ImageNet上的准确性,并提出了一种通用对抗性训练来生成抗干扰的分类器。
Nov, 2018
本文提出一种使用边框添加对抗性干扰的图像覆盖方法, 能够成功攻击最先进的图像和视频分类方法,从而对神经网络的安全性提出挑战,并提供了源代码。
Dec, 2018
提出了一种基于启发式算法的黑盒视频识别攻击模型,生成的对抗扰动仅作用于筛选的视频帧和区域,大大降低了计算成本和减少了查询次数,攻击效果明显。
Nov, 2019
本文介绍了一种可以进行视频分类器对抗攻击的方法,该方法利用了时间信息中的闪烁扰动,并展示了普适对抗扰动和实现对多目标模型的攻击转移能力。
Feb, 2020
通过利用DNN logits向量,并基于Pearson相关系数(PCC)分析两个独立输入的相互影响,我们提出了一种新的对抗样本分析方法。我们的结果表明,通用扰动包含显著特征,而图像对它们则表现得像噪声。利用代理数据集实现的我们发现的一种新的攻击方法,可以生成面向目标的通用对抗性扰动,其性能与使用原始训练数据的最先进基线相当。
Jul, 2020
本文研究了基于视频的动作识别模型对于单帧干扰攻击的结构性脆弱性,分析发现这些模型由于其结构性质非常容易受到攻击,实验结果显示了很高的攻击成功率和可忽略的干扰特征,从多个角度揭示了现代动作识别模型在对抗攻击方面的严重脆弱性问题。
Nov, 2020
本研究提出了基于强化学习的关键帧选择策略和基于显著性检测的关键区域选取方法在黑盒对抗攻击视频识别模型时的应用,有效提高攻击效率和降低设备/计算资源的使用成本。
Aug, 2021
本文综述了最近在图像分类任务中的UAPs的进展,并将其分类为噪声攻击和生成器攻击,并提供了每个类别中代表性方法的全面概述,同时还评估了不同的损失函数在一致的培训框架内的各种攻击设置的有效性,最后提供了扰动的一些可视化及未来的潜在研究方向。
Jun, 2023
使用图像数据和图像模型的Breaking Temporal Consistency(BTC)方法,通过对视频中邻近帧的特征相似性进行最小化以生成逆向模式的对抗性视频,在各种数据集中具有优越的效果。
Nov, 2023