本文介绍了一种在预测自动驾驶系统的轨迹时防御对抗性攻击的方法,该方法包括设计有效的对抗训练方法和添加特定领域的数据增强来减少在净数据上的性能损失。作者通过验证表明,相较于只使用纯净数据训练的模型,该方法在对抗数据上性能提高了 46%,并只降低了 3%的净数据性能。此外,相较于现有鲁棒方法,该方法在对抗样本上的性能提高了 21%,在干净数据上的性能提高了 9%。通过对规划器的评估,研究了我们的鲁棒模型对下游影响,证明该模型可以显著减少严重事故率(例如碰撞和越野驾驶)。
Jul, 2022
本文探讨在可对抗的变形情况下检测对抗攻击,并提出一种名为 defense perturbation 的新方法来检测具有相同输入变换与可靠的对抗攻击。同时介绍了多网络对抗例子,这种对抗例子可以同时欺骗多个网络。
Jan, 2021
本文提出了一种名为 “deep defense” 的训练方法来解决深度神经网络易受到对抗样本攻击的问题,通过将对抗扰动的正则化器与分类目标相结合,得到的模型能够直接且准确地学习抵御潜在的攻击,实验证明该方法在不同数据集上对比对抗 / Parseval 正则化方法有更好的效果。
Feb, 2018
通过计算基于 l2,1 范数的优化算法,我们在 CNN + RNN 网络中使用传播来计算视频的稀疏对抗扰动,即只需扰动视频中的一帧,即可使 DNN 的错判率可达 59.7%。
Mar, 2018
本文提出一种新的适用于人体运动序列的可调节的针对性对抗攻击方法,通过引入两个物理约束条件,提高对抗样本的无感知性,定量和定性结果表明,串联对抗样本可以很好地欺骗目标预测模型,提高人体运动预测器的对抗鲁棒性,但相较于帧至帧比较,该攻击样本比较容易被检测到。
Jun, 2023
利用目标样本的样式和内容信息以及其类边界信息创建对抗性扰动,将其应用于多任务目标并进行深度监督,提取多尺度特征知识以创建最大分离对手,随后提出最大间隔对抗训练方法,最小化源图像与其对手之间的距离,并最大化对手和目标图像之间的距离,证明与最先进的防御相比,我们提出的对抗训练方法表现出强大的鲁棒性,对自然出现的损坏和数据分布变化具有良好的泛化能力,并保留了模型在干净样本上的准确性。
Jul, 2020
本文讲述了近年来视频技术的进步使得生成假视频变得比以往更容易,同时也提到人工智能生成的 Deepfake 视频可以通过对抗性修改来欺骗现有的检测器并且具有实际威胁。研究者在本文中提出了可以误导 DNN 检测器认为 Deepfake 视频为真实的白盒和黑盒攻击方案。
Feb, 2020
本研究以黑盒方式对当今最先进的 DeepFake 检测方法进行批判性漏洞研究,旨在提高其鲁棒性,包括对抗攻击和使用通用对抗样本进行更容易的攻击。该研究还在 DeepFake 检测挑战赛的获奖入口上进行了评估,并证明了它们可以很容易地被跨模型攻击所绕过。
Nov, 2020
本文提出了一种基于实践观察的新的防御方法,旨在强化深度神经网络的结构,提高其预测稳定性,从而更难受到针对性攻击,并在多种攻击实验中证明了该方法的有效性,相比其他防御方法具有更好的表现,而且在训练过程中的开销几乎可以忽略不计。
Jul, 2017
本文提出了一种高效的基于注意力机制的防御方法,利用对抗通道注意力快速识别和追踪浅层网络中的恶意对象,并在多帧情景中遮蔽它们的对抗影响。该方法提升了现有超激活技术在现实世界的对抗攻击中的效果,并引入了一个高效的多帧防御框架,通过广泛实验评估了其防御性能和计算成本。
Nov, 2023