为解决深度神经网络对场景流网络的鲁棒性问题,本研究通过引入针对场景流网络的白盒对抗攻击,发现对一维点云或颜色通道进行攻击对平均端点误差具有显著影响。实验结果显示生成的对抗性样本使 KITTI 和 FlyingThings3D 数据集上的平均端点误差相对劣化达到 33.7。此外,对场景流网络和其 2D 光流网络变体的攻击成功和失败的分析表明光流网络更加容易受到攻击。
Apr, 2024
本文提出了以对抗性补丁攻击的方式评估单眼深度估计的鲁棒性, 通过生成人工模式来欺骗目标方法计算错误的深度进行实验,模拟实现该方法具体效果并通过可视化激活层和受影响区域进行分析。
Oct, 2020
当放置在任意场景位置时,敌对补丁削弱了光流预测的可靠性,因此对现实世界的运动检测及其下游应用构成了现实威胁。我们对目前可用的 ILP 和 LGS 防御策略进行了全面研究,探究其对最新光流方法的质量和稳健性的副作用。然而,当前使用的检测和移除防御策略在恶意场景下降低了光流质量,并且除了 FlowNetC 之外,对所有测试的光流方法在敌对补丁攻击下也削弱了稳健性,因此无法提供所承诺的光流的敌对稳健性。
Oct, 2023
本文提出一种全局的 “受限扰动流攻击”(PCFA)方法,可以优化对光流预测造成的破坏,同时使对抗扰动的 L2 范数保持在一个指定的阈值以下,实现了光流方法预测质量与对抗鲁棒性的综合评估,并发现了一些鲜有人注意的安全漏洞。
Mar, 2022
本文研究针对时间序列 action recognition 领域深度学习模型的无目标对抗攻击方法,该方法可以在白盒和黑盒模式下显著降低模型性能,并且攻击的样本不易被察觉,同时还证明该攻击方式具有一定的可迁移性。
Nov, 2018
本文旨在探讨当前最先进的单目深度估计神经网络对抗攻击的鲁棒性,实验结果表明微小的打扰和少于 1% 的图像损坏就会极大地影响深度估计,并提出一种新的深度特征损坏损失来增强攻击效果
May, 2020
本文提出了一种对抗性噪声网络攻击方法,有效地误导了深度神经网络,同时也改变了网络决策的解释算法,并引入一种控制条件测试神经网络解释算法准确性的方法,以促进更健壮的神经网络解释工具发展。
Dec, 2018
我们分析了攻击技术并提出了一种强大的防御方法,通过利用对象的形状、纹理和位置,成功降低了 20% 以上的模型置信度。利用修复预处理技术,有效地恢复了原始的置信水平,展示了强大防御在减轻这些威胁中的重要性。我们的修复防御方法在仿真像素化的基于补丁的物理对抗攻击中显著提高了模型的韧性,实现了高精度和可靠的定位,尽管受到了对抗性攻击。这项工作推动了对抗挑战中对象检测和分类网络的韧性和可靠性的发展,并为关键应用提供了强大的基础。
Mar, 2024
在实际场景中机器学习模型受到对抗性攻击的威胁时,对抗性贴纸充分展示了这种威胁的具体体现。多视角系统具有在复杂环境中结合多视角数据,从而实现可靠检测结果的能力,然而多视角系统对对抗性贴纸的脆弱性尚未得到充分研究。本文通过提出两种新的攻击方法来挑战之前对多视角系统的观测结果,并取得了令人满意的攻击成功率。
Nov, 2023
该研究关注深度神经网络的安全性问题,着重研究针对目标检测算法的对抗攻击方法,通过生成特定的对抗补丁实现攻击,提出的两种算法均可有效地、通用地攻击最新的目标检测模型。此外,参加了阿里巴巴的天池对抗挑战,并在 1701 对抗团队中获得了前七名。