光流稳健性评估的扰动约束对抗攻击
本文研究了深度学习在光流估计中的鲁棒性,并表明对小于 1%的图像区域进行扰动就可以大大影响光流估计,对编码器 - 解码器体系结构的网络影响很大,而对空间金字塔体系结构的网络则较小,并且通过实验演示了这种攻击是实用的。
Oct, 2019
为解决深度神经网络对场景流网络的鲁棒性问题,本研究通过引入针对场景流网络的白盒对抗攻击,发现对一维点云或颜色通道进行攻击对平均端点误差具有显著影响。实验结果显示生成的对抗性样本使 KITTI 和 FlyingThings3D 数据集上的平均端点误差相对劣化达到 33.7。此外,对场景流网络和其 2D 光流网络变体的攻击成功和失败的分析表明光流网络更加容易受到攻击。
Apr, 2024
当放置在任意场景位置时,敌对补丁削弱了光流预测的可靠性,因此对现实世界的运动检测及其下游应用构成了现实威胁。我们对目前可用的 ILP 和 LGS 防御策略进行了全面研究,探究其对最新光流方法的质量和稳健性的副作用。然而,当前使用的检测和移除防御策略在恶意场景下降低了光流质量,并且除了 FlowNetC 之外,对所有测试的光流方法在敌对补丁攻击下也削弱了稳健性,因此无法提供所承诺的光流的敌对稳健性。
Oct, 2023
本文提出了一种新的对运动估计的攻击方法,利用对气溶胶进行的对抗优化使运动估计器受到雪花、雨滴、雾云等恶劣天气的影响,通过优化训练不仅可以增强运动估计器对天气干扰的鲁棒性,还可以提高模型的推广能力。
May, 2023
本文研究针对时间序列 action recognition 领域深度学习模型的无目标对抗攻击方法,该方法可以在白盒和黑盒模式下显著降低模型性能,并且攻击的样本不易被察觉,同时还证明该攻击方式具有一定的可迁移性。
Nov, 2018
通过提出一种新的 Normalize Flow-based 全链路攻击框架,称为 AFLOW,以在严格约束条件下合成不可察觉的对抗性样本,该方法能够在图像质量和攻击能力上具有卓越性,甚至在健壮模型上也能取得比以前方法更高的攻击效果。
Oct, 2023
本文介绍了一种新的黑匣子对抗攻击方法,该方法基于规范化流来对给定目标图像周围的对抗性样本密度进行建模,在生成的对手中,其具有更接近干净数据分布的属性,从而使其检测不太可能。此外,与部分现有的攻击方法相比,论文实验证明该方法具有较强的攻击性能。
Jul, 2020
通过使用先进的 Nerf 技术,我们提出了一种新的光流训练框架,可以在目标数据领域上高效地训练光流网络,而无需手动标注。实验结果表明,我们的方案在 KITTI 上的泛化能力超过了现有的自监督光流和单目场景流算法,并且在真实世界的零点泛化评估中始终超过大多数有监督方法。
Nov, 2023
本文提出了一种同时预测光流和其基础不确定性的方法,该方法集成了变分推断方案,通过边缘熵获得每个像素处的不确定性量度,得到的不确定性量度明显优于现有的后处理方法。
Aug, 2017
本文提出了一种基于低频领域的对抗攻击方法,能够有效地减少模型查询次数,即使模型和防御策略未知,也能规避图像转换的防御策略,并展示了使用该技术欺骗 Google Cloud Vision 平台模型查询次数极低的成果。
Sep, 2018