基于光流的动作识别分类器的对抗攻击
本文研究了深度学习在光流估计中的鲁棒性,并表明对小于 1%的图像区域进行扰动就可以大大影响光流估计,对编码器 - 解码器体系结构的网络影响很大,而对空间金字塔体系结构的网络则较小,并且通过实验演示了这种攻击是实用的。
Oct, 2019
本文提出了一种基于领域自适应的行为识别方法,使用对抗学习在跨域场景中学习跨域动作识别,从而实现对低光条件下的人类行为进行识别,并在 InFAR 和 XD145 动作数据集上取得了 SOTA 表现。
Oct, 2022
对视频动作识别模型的对抗机器学习攻击是一个不断增长的研究领域,然而只有很少的工作关注抵御或检测这些攻击。我们在这项工作中提出了一种新颖的通用检测方法,该方法与任何动作识别模型兼容,并在广泛的实验中表明其在高真阳性率的同时满足非常低的假阳性率,有效检测不同目标模型的各种攻击,并且对于不同攻击强度表现出鲁棒性,具备作为实际防御机制的潜力。
Apr, 2024
文章研究了先进的行动识别器对抗性攻击的鲁棒性,并提出了一种基于 3D 骨架运动的攻击方法,该方法包含一种创新的感知丢失,保证攻击的不可察觉性,实证研究表明我们的方法对于白盒和黑盒情况均有效。
Mar, 2021
本文研究了基于视频的动作识别模型对于单帧干扰攻击的结构性脆弱性,分析发现这些模型由于其结构性质非常容易受到攻击,实验结果显示了很高的攻击成功率和可忽略的干扰特征,从多个角度揭示了现代动作识别模型在对抗攻击方面的严重脆弱性问题。
Nov, 2020
深度神经网络被广泛用于各种下游任务,尤其是自动驾驶等安全关键场景,但深度网络常常受到对抗样本的威胁。对抗攻击可以分为白盒攻击和黑盒攻击,前者攻击者知道模型的参数和梯度,后者攻击者只能获取模型的输入和输出。攻击者的目的可以分为有目标攻击和非有目标攻击,黑盒设置是我们实践中会遇到的情况。
Aug, 2023
本文介绍了一种新的黑匣子对抗攻击方法,该方法基于规范化流来对给定目标图像周围的对抗性样本密度进行建模,在生成的对手中,其具有更接近干净数据分布的属性,从而使其检测不太可能。此外,与部分现有的攻击方法相比,论文实验证明该方法具有较强的攻击性能。
Jul, 2020
本文提出了一种利用光影对深度学习图像分类系统进行物理攻击的方法,通过实验发现选择不同的光影模式可以使得 2D 和 3D 物体的分类精度大幅降低。
Oct, 2018
为解决深度神经网络对场景流网络的鲁棒性问题,本研究通过引入针对场景流网络的白盒对抗攻击,发现对一维点云或颜色通道进行攻击对平均端点误差具有显著影响。实验结果显示生成的对抗性样本使 KITTI 和 FlyingThings3D 数据集上的平均端点误差相对劣化达到 33.7。此外,对场景流网络和其 2D 光流网络变体的攻击成功和失败的分析表明光流网络更加容易受到攻击。
Apr, 2024